https://bodybydarwin.com
Slider Image

Facebook contracta 3000 monitors de contingut nous per a un treball que l'AI no pot fer

2021

Ahir, Mark Zuckerberg va anunciar que Facebook contracta 3.000 persones per treballar en el seu equip d’operacions de la comunitat, que revisa imatges, vídeos i publicacions que els usuaris denuncien. Aquestes noves contractacions s’uniran als 4.500 empleats existents per intentar minimitzar l’abast de futurs esdeveniments com el rodatge de Robert Goodwin. És una inversió considerable, però imprescindible per a Facebook, però ens porta a una pregunta bàsica: No es pot automatitzar aquesta feina?

L’escala d’aquest treball és enorme: Facebook contracta més persones que treballen a les sales de premsa combinades del New York Times, el Wall Street Journal i el Washington Post. En aquest moment, Facebook no diu si els llocs de treball seran empleats o contractistes i si es basarà als Estats Units o a l'estranger. (Curiós sobre com és aquest treball? Llegiu l’immersió d’Adrien Chen a la moderació de contingut des del 2014 o mireu aquest vídeo al procés de moderació)

"Aquests revisors també ens ajudaran a millorar els temes que no permetem a Facebook com el discurs d'odi i l'explotació infantil", va escriure el CEO de Facebook, Zuckerberg. ajudar algú si ho necessita, ja sigui perquè estan a punt de fer-se mal, o perquè estan en perill d'algú. "(es va afegir èmfasi)

El subtext és l’assassinat del 16 d’abril de Robert Goodwin a Cleveland. Segons una línia de temps publicada per Facebook, a les 14.09 PM Oriental del 16 d'abril, un home va penjar un vídeo que afirmava la seva intenció de cometre un assassinat. Dos minuts després, l’home va penjar el vídeo d’ell disparant a Goodwin. Poc després d'això, el sospitós d'assassinat es va publicar en directe a Facebook durant cinc minuts. El vídeo de la filmació es va informar a les 16:00 i, per a les 4:22, Facebook va suspendre el compte del tirador i va eliminar els seus vídeos de la vista pública. Es tracta de poc més de dues hores entre la publicació inicial i la suspensió del compte, però la ubiqüitat de Facebook i la naturalitat horrible de l’assassinat van convertir-lo en novetats nacionals.

Hi ha contingut que Facebook censura de manera preventiva a mesura que es penja. La companyia utilitza sistemes automatitzats per trobar fotos nude i pornogràfiques prèviament eliminades quan es pengen per segona vegada. La xarxa social també utilitza PhotoDNA, una eina que fa referència a les imatges a una base de dades de marcadors coneguts de fotografies d’explotació infantil, de manera que es poden bloquejar i informar a les autoritats legals corresponents. En tots dos casos, l'automatització comprova quantitats conegudes anteriorment.

La major part de l'automatització del procés facilita l'aplicació manual dels revisors de contingut humà. Si s’informa un fragment de contingut 1.000 vegades, les eines reconeixen els informes duplicats, de manera que només s’ha de revisar manualment una vegada. Altres eines dirigeixen imatges, publicacions o vídeos a revisors que tinguin experiència específica; per exemple, algú que parla àrab pot revisar el contingut marcat d’un grup extremista a Síria que podria violar els termes del servei de Facebook.

Tot i així, és la capacitat de judici humà entendre el context que regula el dia. Per determinar si un comentari és odiós o bullying, Facebook es basa en persones reals. I en el cas concret de Facebook Live, hi ha un equip dedicat a controlar els informes sobre vídeo en directe; el grup monitoritza automàticament qualsevol vídeo en directe que arribi a un determinat llindar de popularitat sense declarar.

Hi ha un àmbit en què Facebook està donant a l'AI un paper més actiu. Al març, la xarxa va llançar una eina AI de prevenció del suïcidi, que identifica publicacions que semblen indicar pensaments suïcides. BuzzFeed informa que l'AI pot analitzar publicacions i comentaris per trobar semblances amb publicacions anteriors que justifiquin l'acció. En rares circumstàncies, alertarà directament als moderadors, però més sovint mostrarà als usuaris eines de prevenció del suïcidi com el número d’una línia d’assistència. A més, l'AI fa un botó per denunciar un autolesionament més important als amics de la persona, augmentant la probabilitat que marquin el vídeo per als moderadors humans de Facebook. (La companyia va negar-se a comentar el registre d'aquesta història.)

L’alternativa immediata a la moderació humana és probablement la censura preventiva.

"Volem un Facebook més censurat?", Va dir Kate Klonick, companya resident al Projecte de la societat de la informació a Yale. "Quan es posa en marxa un sistema excessivament robust, el potencial és que la gent no estigui formada correctament i hi hagi molts més falsos positius i molta més censura".

El treball de Klonick es centra en Facebook i altres plataformes com a sistemes que governen la parla en línia. Facebook ha de fer opcions actives sobre com regula el que es publica i es manté publicat, argumenta Klonick, i no hi ha una bala màgica algorítmica que pugui canviar això des d’un problema de parla en un repte tècnic.

"Tenim anys que no podem tenir una IA que pugui resoldre aquests complexos problemes de presa de decisions", va dir Klonick. "No es tracta només del reconeixement de la fotografia, sinó del reconeixement de la foto a la part superior de la presa de decisions sobre la categorització, que són un problema de cognicions difícils, del qual ara no estem pensats de manera fiable".

El repte del reconeixement de fotos és tan icònic en la programació d’ordinadors que s’ha convertit en una cosa pròpia d’una paràbola. El 1966, Seymour Papert al MIT va proposar el que pensava que seria un simple projecte d’estiu: formar un ordinador per reconèixer objectes. En lloc d’acabar un estiu, el camp de la formació d’ordinadors per reconèixer objectes és una tasca monumental, que continua fins avui dia, amb empreses com Google i Facebook aporten diners i hores per investigar una solució.

"Per al futur previsible", diu Klonick, "No és un problema d'AI ni una solució de IA".

La Llei del Federalisme de Drone canviaria la regulació als governs estatals i locals

La Llei del Federalisme de Drone canviaria la regulació als governs estatals i locals

Les aus borratxes estan causant estralls a Minnesota

Les aus borratxes estan causant estralls a Minnesota

Revisió del cercle de Logitech: aquesta càmera de seguretat intel·ligent pot funcionar sense fils

Revisió del cercle de Logitech: aquesta càmera de seguretat intel·ligent pot funcionar sense fils