Amb gran progrés ve una gran responsabilitat

Autora: Roger Morrison
Data De La Creació: 27 Setembre 2021
Data D’Actualització: 1 Juliol 2024
Anonim
Amb gran progrés ve una gran responsabilitat - Tecnologia
Amb gran progrés ve una gran responsabilitat - Tecnologia

Content


Font: Mike2focus / Dreamstime.com

Emportar:

El consum de mitjans està evolucionant a la vegada dels avenços tecnològics com la intel·ligència artificial (AI). Tot i que generalment abracem els avenços, també hem de ser conscients dels inconvenients d’algunes formes de tecnologia. Hi ha un aspecte fosc de la capacitat de l'AI quan s'utilitza per promoure notícies falses.

El costat fosc de la tecnologia es trobava entre els temes explorats a la segona conferència Machines + Media de NYC Media Lab, que va ser patrocinada i acollida per Bloomberg a la seva seu global de la ciutat el 15 de maig, tot i que algunes de les sessions es van dedicar més a mirar de quina tecnologia. Actualment està disponible per als mitjans de comunicació, fins i tot els que van suposar l'ombra de la manipulació i la desinformació.

Una bona història és més convincent que tota la veritat

A la sessió titulada "State of the Art", Gilad Lotan, vicepresident, responsable de ciències de dades, Buzzfeed, va assenyalar que el problema de les notícies falses o enganyoses no es pot culpar només a empreses de mitjans o a les noves tecnologies. "La gent no busca necessàriament fets", va dir. "Els lectors volen històries".


Va afegir que l’alimentació d’aquest desig d’històries i narracions afavorides pot donar lloc a notícies falses que són “més manipulacions que falses informacions”. De fet, la història que es presenta pot ser que no inclogui res fals. El que és fals és que els fets denunciats són recollits amb cirera i es treuen del "con" més gran per tal de conduir els "lectors cap a una conclusió".

En la mateixa línia, a la sessió "Plataforma + Mitjans", Kelly Born de la Iniciativa Democràtica Us Democracy de la Fundació William i Flora Hewlett, va dir: "A la gent li agrada notícies que reforcin les seves creences, i sobretot si desencadena indignació". Va advertir que la capitalització dels mitjans de comunicació. en aquesta tendència pot conduir a una "tempesta perfecta" que produeix el pitjor de nosaltres. Això s'agreuja amb la possibilitat de presentacions completament fabricades.


Veure encara creure?

La tecnologia juga un paper a l'hora de explicar la història a través d'imatges i vídeo. Solem creure el que veiem tret que hi hagi signes evidents de manipulació. No obstant això, a mesura que AI millora el realisme de vídeos falsos, ara és possible posar literalment paraules a la boca de personatges públics. (L’AI no s’utilitza només amb propòsits nefastos. Consulteu-ne algunes constructives en 5 maneres que les empreses poden voler considerar l’ús de la IA.)

El perill de la producció de vídeos molt creïbles de l'AI es va demostrar a la sessió titulada "Solucions per al costat fosc dels mitjans impulsats per màquines". Va començar amb un vídeo on Barack Obama deia coses que l'expresident mai ha dit. El moviment encara estava lleugerament sincronitzat amb les paraules, de manera que té algunes marques d’un vídeo fals, i la majoria de l’audiència va dir que el podrien reconèixer com un fals.

Que la manipulació en vídeo d'Obama no aconseguís el realisme de ressuscitar a Peter Cushing com a Grand Moff Tarkin per a "Rogue One". Tal com explicava un article del New York Times, l'efecte es va aconseguir que un actor portés "materials de captura de moviment al cap". mentre estava davant de la càmera “de manera que el seu rostre es pogués substituir per una recreació digital de la de Cushing”. El principal responsable creatiu de la pel·lícula / supervisor principal d’efectes visuals de la pel·lícula, l’anomenà “una versió de tecnologia molt alta i amb molta feina. maquillatge."

Falses indetectables

Ara, gràcies als avenços de l'AI, específicament, xarxes adversatives generatives (GAN), és més fàcil que mai aconseguir efectes màgics de pel·lícules. Utilitzant GANs, un sistema d’AI perfecciona les imatges fins que és prou bo per ser acceptat com a real per un sistema d’AI dissenyat per detectar falsificacions.

Sense errors, sense estrès: la vostra guia pas a pas per crear programes que canvien la vida sense destruir la vida

No podeu millorar les vostres habilitats de programació quan ningú es preocupa per la qualitat del programari.

En aquest vídeo, podeu veure els investigadors demostrant com un actor pot dirigir els moviments de la cara d'una figura pública per produir qualsevol expressió i pronunciació amb el nivell de fidelitat que no sol trobar als vídeos doctorats.

Tot i que no totes les persones que reprodueixen vídeos tenen un sistema disponible en aquest moment, el programari estarà a l’abast de més persones en un futur molt proper.

Possibles conseqüències

Dhruv Ghulati, fundador i conseller delegat, Factmata, assegura que està "molt preocupat" per com es pot aplicar aquesta capacitat per posar cara a líders no només dels líders mundials, sinó dels CEO i dels famosos com a prova de la seva afirmació o de fer coses que no han fet. . Els poders destructius del vídeo es podrien intensificar aconseguint un efecte viral de les botnets.

Significa que "ja no podem confiar en els nostres ulls mentides", va declarar Mor Naaman, professor associat de ciències de la informació, Cornell Tech. Li preocupava que comportés una pèrdua de confiança.

Altres es preocupen per disparar les flames de la violència. Ja "només hi ha vídeos lleugerament modificats" que "s'utilitzen per provocar violència al món en desenvolupament", va observar Aviv Ovadya, tècnic en cap del Centre de Responsabilitat Social Media. (Les xarxes socials poden ser una manera eficaç de difondre informació falsa. Fes una ullada als 4 principals enviaments de feeds devastadors.)

Sarah Hudson, sòcia de la inversió als Estats Units, va expressar la seva preocupació perquè les imatges manipulades "a escala" representin "una increïble amenaça per a la seguretat pública".

Planificació Proactiva

És imprescindible “prevenir el màxim d’abús possible”, va dir Ovadya. És per això que és important “pensar prèviament mentre desenvolupem tecnologia” sobre “com mitigar els efectes dolents” i “dedicar recursos per fer front a aquestes conseqüències no desitjades”.

És impossible fer retrocedir el rellotge sobre el progrés, però el que hem de fer és assegurar-nos i planificar la direcció que prenem. Això vol dir no només treballar en tecnologia per veure què es pot fer, sinó pensar en què es pot fer que s’ha d’evitar.

El camí a seguir per a la innovació tecnològica és pensar quins són els efectes i planificar les salvaguardes abans que es produeixin els perills. Per fer-ho, necessitarem la cooperació entre els investigadors, les empreses tecnològiques i les agències governamentals per establir estàndards i bones pràctiques a les quals la gent s'adhereixi. Aquesta hauria de ser una prioritat per a tots els afectats.