Google släpper häftigt AI-verktyg: Nu går det inte att se om videon är äkta

Lumiere är en ny mjukvarumodell från Google som använder text och bilder för att skapa konstgjorda videor som ser extremt verkliga ut.

Videobilderna är trovärdiga, men det de visar har aldrig hänt i verkligheten.

Bilderna kommer från videor som skapats med artificiell intelligens. Det som de visar har aldrig hänt i verkligheten.

© Google.

Artificiell intelligens kan generera bilder som ser kusligt verkliga ut. Och nu gäller detta inte bara stillbilder – AI:n har lärt sig att skapa rörliga bilder som är svåra att skilja från verkligheten.

Google har visat upp exempel på vad företagets nya AI-modell Lumiere kan åstadkomma. Utifrån en enkel textrad eller en bild kan den generera videor med mycket övertygande resultat, vilket framgår av videon nedan.

Video

Banbrytande AI-modell

Modellen har utvecklats av Google i samarbete med Weizmann Institute of Sciences och Tel Aviv University. Den är uppbyggd kring en arkitektur som gör att den kan analysera och förstå rum och tid, det vill säga de dimensioner i rummet och tiden där objekten rör sig och befinner sig i en video.

Detta gör resultaten mer realistiska än allt annat vi har sett hittills.

Så ser du om videon är falsk

Att kunna skapa rörliga bilder på det här sättet öppnar dörren till många roliga möjligheter, men samtidigt blir det nu svårare att skilja äkta rörliga bilder från AI-genererade filmklipp.

Om du är osäker ska du leta efter brist på sammanhang mellan ansiktsuttryck och rörelser, onaturlig belysning, skuggor, skärpa och detaljer samt deformerade händer.

Detta är ofta ett tecken på att videon är falsk.