Det är ingen nyhet att AI hjälper till att optimera bilderna i en mobilkamera. Under det årtiondet har artificiell intelligens i allt högre grad integrerats i mobilkamerorna. Detta har dock främst varit för att hjälpa till med kamerainställningar och optimera bilder efter att de har tagits.
Med sin senaste flaggskeppstelefon går Google mycket längre. Telefonen har ett kolossalt zoomområde som förlänger brännvidden 100 gånger. När den överstiger 30 gånger börjar kamerans Pro Res-algoritm att generera detaljer för att kompensera för den reducerade bildkvaliteten. Detta sker dock med varierande framgång. Nedan kan du se exempel på både hur bra och hur dåligt det kan bli.
Tillsammans med den manipulerade bilden sparar telefonen en obearbetad version av samma bild i råformat. Detta gjorde det enkelt för oss att jämföra resultaten.
För tydlighetens skull bör det noteras att Google är helt öppna med att AI används för att generera nya detaljer. Detta registreras också i bildens metadata så att andra kan se att AI har använts.
Här träffade Pro Res-zoomen mitt i prick
Vi blev verkligen imponerade när vi tog de första bilderna med Pro Res. Andra telefoner har erbjudit lika mycket zoom, men med resultat som inte varit i närheten av vad vi fick med Google Pixel 10 Pro. Arkitektoniska detaljer och djur blev skarpa från flera hundra meters håll.
Här gjorde Pro Res-zoomen bort sig
Det dröjde dock inte länge förrän vår inledande entusiasm började avta. När vi hade tagit ett antal bilder såg vi att vissa detaljer inte stämde överens med verkligheten. När kvaliteten på originalbilden är för dålig gissar telefonens AI vilka detaljer som saknas. Detta resulterade i att fåglar saknade ögon, näbbar och ben, eller att de hade ett öga på baksidan av halsen.
ANMÄL DIG TILL VÅRT NYHETSBREV
Vi ger dig något att fundera över varje dag – direkt i din inkorg.
Är det fortfarande ett foto?
Det är inte första gången som generativ AI används i en mobilkamera. För några år sedan uppstod en stor kontrovers när det kom fram att toppmodellen Galaxy S23 Ultra lade till artificiella detaljer när användarna tog bilder av månen. Samsung tvingades därefter be om ursäkt och förklara sig.
Att lägga till helt nya bilddata som inte fanns i motivet från början bryter mot vad många av oss uppfattar som ett äkta foto. Resultatet är inte längre en fotografisk återgivning av det som fanns framför våra ögon, utan istället en bild skapad av en dator. I vissa fall en bild som är praktiskt taget identisk med verkligheten.
I takt med att AI-tekniken förbättras kommer ”i vissa fall” förmodligen att bli ”nästan alltid”. Spelar det någon roll? Det är upp till var och en att bedöma, men vi kanske behöver hitta ett annat ord för detta än ”foto”.