https://bodybydarwin.com
Slider Image

Adobe ensenya la intel·ligència artificial per eliminar les imatges de Photoshop

2022

La gent fa més d'un segle que manipula fotografies des de l'aparició de les càmeres de consum. Com a resultat, els cínics han estat tractant d’escombrar aquestes manipulacions i exposar els fraus durant el mateix temps. A mesura que han evolucionat les eines d’edició, els mètodes per a la superació d’edicions matisades han quedat enrere –almenys fora d’àmbits com l’aplicació de la llei i la forense d’imatges.

L’arsenal d’Adobe per trobar falsificacions inclou diverses eines que aprofiten la intel·ligència artificial. Recentment, la companyia va anunciar algunes investigacions conjuntament amb UC Berkeley dissenyada per detectar canvis realitzats a una cara mitjançant una funció integrada en Photoshop anomenada Face Aware Liquify. Encara hi ha molt camí per recórrer abans que pugueu assenyalar un programari en una foto i obtenir una resposta infalible sobre la seva autenticitat, però projectes com aquest poden ser essencials, ja que trobem vídeos cada cop més convincents, però fraudulents, coneguts com deepfakes

Aquesta no és la primera incursió d'Adobe en l'autenticació d'imatges basada en AI. De fet, la companyia ja va publicar dades sobre tècniques que es centren en tècniques d’edició d’imatges més habituals com ara dividir imatges junts, eliminar objectes d’una foto o copiar i enganxar una àrea d’una imatge en un altre lloc. Tot això és estratègia de falsificació coneguda.

Tanmateix, aquestes tècniques provenen generalment d’un editor humà que pot veure la imatge i el producte acabat, però pot no veure el rastre de pistes que estan deixant sobre la seva feina. Per exemple, copiar i enganxar un element d'un lloc a un altre pot interrompre el patró de soroll digital creat pel sensor d'una càmera digital.

La nova investigació, però, descriu una tècnica destinada a les edicions d’enginyers inversos que es basaven en IA en primer lloc.

L’eina de liquidació de Photoshop ha estat durant moltes generacions del programari. Llicitar una imatge permet polsar i treure els píxels al voltant. És una eina comuna per als retocadors, ja que facilita (per a millor o per a pitjor) que una part específica del cos del model sembli més gruixuda o més prima. Tanmateix, diverses versions, però, Adobe va anunciar Face Aware Liquify que utilitza AI per reconèixer elements individuals a la cara i permet als retocadors manipular fàcilment variables com la mida i la forma dels ulls, el nas i la boca.

Si feu servir Face Aware Liquify, podeu fer anar els deslizadors de tota la forma i podeu fer algunes coses realment pesaderes, però utilitzeu-les de manera subtil i podeu canviar la cara o l'expressió d'una persona de manera que de vegades no es pugui detectar si no he vist l'original.

A la seva investigació, Adobe va mostrar parells d’imatges una foto alterada, i la original a la xarxa neuronal i als subjectes humans. Els humans van poder identificar la foto modificada aproximadament el 53 per cent de les vegades, però segons sembla que la xarxa neuronal va obtenir una precisió aproximada del 99 per cent. Més enllà d’això, l’IA també podria desfer les edicions per obtenir una aproximació de l’original mitjançant una combinació de pistes com una distorsió provocada pels efectes d’ordit originals.

Tot i que eines com aquestes són útils, encara hi ha un llarg camí per recórrer abans de la creació del procés de detecció. Hany Farid, professor de ciències de la computació de la UC Berkeley, va dir recentment al Washington Post que els investigadors que intenten detectar vídeos profunds passen a superar entre 100 i 1 els que treballen per fer que els vídeos siguin més convincents i siguin més difícils d’esborrar.

I, fins i tot, si la tecnologia s’aconsegueix, encara hi ha més variables per esbrinar, no és el menys important que la gent aconsegueixi confiar en el judici d’AI, sobretot quan el contingut que avalua pot ser polític o polaritzador. També hi ha un problema de verificació d'imatges: la certificació que una foto o vídeo no s'ha modificat digitalment pot aportar massa credibilitat al missatge. El fotògraf o videògraf segueix triant activament quina informació cal presentar i com es presenten, de manera que és molt possible confondre els espectadors sense cap tipus de manipulació digital.

No hi ha cap manera de provar les eines actualment, de manera que no podeu provar-ho per vosaltres mateixos, però, com Adobe i altres empreses, així com els militars continuen treballant aquest tipus de tecnologia, espereu sentir-ne més. A més, espereu veure imatges i vídeos més falsos.

Conegui els experts que intentin mantenir el material nuclear fora de les mans equivocades

Conegui els experts que intentin mantenir el material nuclear fora de les mans equivocades

Com sembla la Terra als cossos celestes més allunyats

Com sembla la Terra als cossos celestes més allunyats

El camp magnètic de Júpiter té dos "pols sud"

El camp magnètic de Júpiter té dos "pols sud"