OpenAI kan automatisch afbeelding genereren bij tekst

OpenAI heeft een tipje van de sluier opgelicht van een model dat gebaseerd is op hun neurale netwerk GPT-3 en automatisch afbeeldingen kan genereren op basis van tekst. Het model heet DALL-E en maakt gerandomiseerde, niet-bestaande afbeeldingen die passen bij een korte omschrijving.

Het gaat om realistische afbeeldingen van dieren, voorwerpen of plaatsen. Vaknieuwssite The Register heeft al met het model kunnen werken en schrijft dat bij de omschrijving ‘een dwarsdoorsnede van het hart’ zeer realistische afbeeldingen van een model of een echt menselijk hart worden geproduceerd.

Maar DALL-E werkt ook met de opdracht ‘een woonkamer met twee olijfkleurige leunstoelen en een schilderij van een inktvis’ – het model spuugt zo twintig woonkamers uit die allemaal verschillend zijn, maar wel aan de omschrijving voldoen. Het werkt ook met opdrachten van situaties die niet werkelijk kunnen bestaan, zoals ‘een illustratie van een baby-radijsje in een tutu die een hond uitlaat’.

Gevolgen designers, illustratoren, kunstenaars en fotografen

Het model is getraind met een dataset die honderden miljoenen afbeeldingen bevat die van het internet zijn gehaald en die ook over een beschrijvende tekst beschikken. Hoe het precies werkt wil OpenAI nog niet zeggen, maar er komt in de toekomst een wetenschappelijk artikel aan waarin meer wordt uitgelegd.

Er zijn mensen die zich zorgen maken dat een tool als DALL-E een behoorlijke invloed heeft op de toekomst van designers, illustratoren, kunstenaars en fotografen. OpenAI zegt zich daarvan bewust te zijn, en ook onderzoek te willen doen naar de economische gevolgen van een model als DALL-E. Ook zou DALL-E goed zijn in het reproduceren van dingen die ergens al bestaan, maar om echt nieuwe ideeën te creëren of kunst te maken hebben de mensen (nog) een voorsprong.

Meer
Markten
Mijn Volglijst
Markten
BEL20