Per què algunes empreses contemplen afegir 'controls de retroalimentació humana' als sistemes moderns d'AI? Presentat per: AltaML googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); P:

Autora: Roger Morrison
Data De La Creació: 25 Setembre 2021
Data D’Actualització: 9 Ser Possible 2024
Anonim
Per què algunes empreses contemplen afegir 'controls de retroalimentació humana' als sistemes moderns d'AI? Presentat per: AltaML googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); P: - Tecnologia
Per què algunes empreses contemplen afegir 'controls de retroalimentació humana' als sistemes moderns d'AI? Presentat per: AltaML googletag.cmd.push (function () {googletag.display (div-gpt-ad-1562928221186-0);}); P: - Tecnologia

Content

Presentat per: AltaML



P:

Per què algunes empreses contemplen afegir "controls de retroalimentació humana" als sistemes moderns d'AI?

R:

Algunes empreses que treballen amb tecnologia d’IU d’avantguarda estan treballant per instaurar controls humans d’aquests sistemes, proporcionant a les eines d’aprenentatge automàtic i d’aprenentatge profund una certa supervisió humana directa. Tanmateix, aquestes empreses no són petites: el DeepMind de Google i l’OpenAI d’Elon Musk són dos exemples d’importants companyies que s’informen sobre els avenços en intel·ligència artificial. Tenint en compte això, els resultats difereixen, per exemple, DeepMind ha estat objecte de controvèrsies per la seva voluntat percebuda de proporcionar dades claus al públic, mentre que OpenAI és molt més, bé, obert sobre el seu treball en el control de la intel·ligència artificial.


Fins i tot alguns aspectes rellevants com Bill Gates han pesat sobre aquest tema, Gates va dir que és un dels que es preocupa de l'aparició d'una superintel·ligència artificial que, d'alguna manera, pot anar més enllà del control humà. Per part seva, Musk també ha posat en evidència un llenguatge alarmant sobre la possibilitat de "IA maleducada".

Aquesta és probablement la raó més urgent per la qual les empreses treballen per aplicar controls humans a IA: la idea que una certa singularitat tecnològica tindrà com a resultat una tecnologia senzilla molt potent que els humans simplement ja no poden controlar. Des de l’alba de les ambicions humanes, hem posat en marxa eines per assegurar-nos que puguem controlar els poders que posseïm, ja siguin cavalls amb regnes i arnes, electricitat en cables aïllats o qualsevol altre tipus de mecanisme de control. el control és una funció innata humana i, per tant, té tot el sentit que, a mesura que la intel·ligència artificial s’acosta més a la funcionalitat real, els humans apliquen els seus propis controls directes per mantenir aquest poder en control.


Tot i això, la por als robots super-intel·ligents no és l’única raó per la qual les empreses apliquen controls humans a l’aprenentatge de màquines i als projectes d’AI. Un altre dels motius principals és el biaix de màquines, aquesta és la idea que els sistemes d’intel·ligència artificial sovint es limiten a la manera d’avaluar les dades en qüestió, de manera que amplifiquen qualsevol biaix inherent al sistema. La majoria de professionals que tracten l’aprenentatge automàtic poden explicar històries de terror sobre sistemes d’informàtica que no van poder tractar els grups d’usuaris humans per igual, tant si es tractava de disparitat de gènere o ètnies, o d’algun altre fracàs del sistema en comprendre realment els matisos de les nostres societats humanes i com interactuem amb les persones.

En certa manera, podríem posar els controls humans als sistemes perquè temem que siguin massa potents, o alternativament, perquè temem que no siguin prou potents. Els controls humans ajuden a orientar conjunts de dades d’aprenentatge de màquines per proporcionar més precisió. Ajuden a reforçar idees que l'ordinador simplement no pot aprendre per si sol, ja sigui perquè el model no és prou sofisticat, perquè l'AI no ha avançat prou lluny o perquè algunes coses només es troben a la província de la cognició humana. La intel·ligència artificial és excel·lent per a algunes coses, per exemple, un sistema basat en recompenses i puntuacions va permetre a una intel·ligència artificial vèncer a un jugador humà en el complex joc de taula "Go" immensament complex, però per a altres coses, aquest sistema basat en incentius és totalment inadequat.

En poques paraules, hi ha nombroses raons convincents per mantenir els usuaris humans directament implicats en el funcionament dels projectes d’intel·ligència artificial. Fins i tot les millors tecnologies d’intel·ligència artificial poden pensar molt per si mateixes, però sense un cervell humà biològic real que pugui processar coses com les emocions i els aspectes socials, no poden simplement veure la imatge de manera humana.

Una empresa especialitzada en aprenentatge de màquines pot ajudar a aconseguir aquest equilibri amb una combinació d’experts en matèria i temes i els desenvolupadors d’aprenentatge automàtic amb habilitats per resoldre grans problemes empresarials.