AI-genererade bilder börjar bli läskigt bra. Om du besöker thispersondoesnotexist.com behöver du bara ladda om sidan för att generera en bild på ett ansikte. Det märkliga är att bilden föreställer en person som inte finns i verkligheten utan är skapat av en AI som matats med massor av bilddata. Ibland kan man se en liten detalj i bilden som ser konstig ut men allt som oftast kommer du se bilder som upplevs som verkliga. Det känns både fascinerande och skrämmande att det vi människor är som mest tränade på att analysera, ett mänskligt ansikte, nu kan genereras med den här kvalitén.

Det är inte bara våra yttre kvaliteter som en AI kan efterlikna. Gizmodo skriver om att OpenAI (som jobbar mycket med den etiska aspeken kring AI) har tagit fram en textgenerande AI som är så bra att den är för farlig för att släppa lös.

Forskarna ska enligt sin rapport ha använt sig av 40GB data som man hämtat från internet för att träna mjukvaran. Efter det räckte det med en liten mängd textinformation för att deras AI kunde fortsätta skriva på egen hand på ett övertygande sätt. Vid komplicerade tekniska ämnen tenderade det att bli fler fel, men då det gällde mer generella ämnen blev resultatet trovärdigt vid hälften av försöken.

Varför menar forskarna att det skulle kunna vara farligt? En aspekt som lyfts upp är risken för att snabbt kunna sprida vilseledande information och fake-nyheter. Om vi inte redan nu sett att AI kan användas för propaganda så kan vi nog räkna med att vi kommer få göra det. The Guardian har publicerat exempel på hur texter har genererats som innehåller trovärdig text men med falska citat och påståenden. Ett annat potentiellt farligt användningsområde är för att generera innehåll för lösenordsfiske och bedrägerier. Kombinerar man en genererad bild med genererad text skulle man kunna ta fram digitala användare på ett sätt som vi inte hittills har sett. Framtiden på internet är som vanligt skrämmande och spännande på samma gång.