Per què els Superintel·ligents no destrueixen els humans en qualsevol moment

Autora: Roger Morrison
Data De La Creació: 1 Setembre 2021
Data D’Actualització: 21 Juny 2024
Anonim
Per què els Superintel·ligents no destrueixen els humans en qualsevol moment - Tecnologia
Per què els Superintel·ligents no destrueixen els humans en qualsevol moment - Tecnologia

Content


Font: Willyambradberry / Dreamstime.com

Emportar:

Malgrat algunes de les grans ciències de ficció que ha inspirat, els experts expliquen que probablement l'AI no ens amenaça directament en termes de supremacia mental.

Si esteu atenent al que parlen les persones a l’espai tecnològic, potser heu escoltat alguna versió de les preocupacions que Elon Musk, Bill Gates i d’altres tenen sobre tecnologies AI superintel·ligents, tot i que els recents informes demostren que Gates s’ha refrescat una mica. En totes aquestes coses, encara hi ha una gran preocupació i raonament al darrere.

Abunden les preguntes: Els robots seran més intel·ligents que els humans? L’AI assumirà les nostres feines i la nostra vida? Començarà la tecnologia a controlar els humans i els problemes amb una IA mal utilitzada conduiran a violència i destrucció?

Per a molts experts, la resposta és un rotund “no” basat en les formes reals que desenvolupem les tecnologies actuals. La majoria estaria d’acord en que necessitem marcs ètics i explicables per dirigir les tecnologies d’I i ML, però no estan d’acord que els patrons dels robots són un resultat determinat.


Vegem alguns debats sobre la superintel·ligència i vegem per què molts tecnòlegs confien que els humans encara mantindran les rendes d’aquí a un parell de cent anys.

Els humans prenem el plom

Quan observeu els informes relacionats amb les IA, un nom que apareix força és Grady Booch. Booch va ser pioner al llenguatge de modelització unificada (UML) i va treballar en tecnologies clau per a IBM a principis del mil·lenni.

Un col·loqui TED de Booch il·lustra una mica del seu optimisme sobre els tipus de IA que abans pensàvem com a ciència ficció.

Primerament, segons ell, la formació humana inclourà les seves pròpies ètiques i normes en el funcionament dels sistemes d’AI.

"Si vull crear un assistent jurídic artificialment intel·ligent, li ensenyaré alguns corpus de dret, però alhora estic fusionant el sentit de la misericòrdia i la justícia que formen part d'aquesta llei", afirma Booch. "En termes científics, això és el que anomenem veritat fonamental, i aquí és el punt important: en produir aquestes màquines, doncs, els estem ensenyant una sensació dels nostres valors. A aquest efecte, confio en una intel·ligència artificial igual, si no és més, que un humà ben format. ”(Per obtenir més informació sobre el futur (i el passat) de la IA, consulteu Thinking Machines: The Artificial Intelligence Debate.)


Sense errors, sense estrès: la vostra guia pas a pas per crear programes que canvien la vida sense destruir la vida

No podeu millorar les vostres habilitats de programació quan ningú es preocupa per la qualitat del programari.

Més tard, a la xerrada, Booch planteja un altre argument ben diferent per què no necessitem tenir por a una presa de possessió per part de les tecnologies.

"(Una amenaça existencial per a la humanitat per part de la tecnologia) hauria d'estar amb una superintel·ligència", diu Booch. "Hauria de tenir domini sobre tot el nostre món. Aquestes són les coses de Skynet de la pel·lícula "The Terminator", en què teníem una superintel·ligència que comandava la voluntat humana, que dirigia tots els dispositius que hi havia a tots els racons del món. Pràcticament, no passarà. No estem construint AIs que controlin el clima, que dirigeixin les marees, que ens manin humans capriciosos i caòtics. I, a més, si existís una intel·ligència artificial, hauria de competir amb les economies humanes i, per tant, competir pels recursos amb nosaltres ... al final (no us ho digueu a Siri), sempre les podrem desconnectar ".

Els nostres cervells, els nostres cossos

Un altre dels principals arguments per a la supremacia de la cognició humana sobre la tecnologia està relacionada amb l'exploració del cervell humà.

Si aneu a YouTube i escolteu el fins ara reconegut enginyer Marvin Minsky, un pioner inicial del ML i un exemple per a Ray Kurzweil i altres gurus de l'AI d'avui, el podreu sentir parlar del cervell humà. Minsky subratlla que la intel·ligència humana real no és un supercomputador potent, sinó que centenars d’ordinadors diferents s’entrellacen entre si de manera complexa. AI, explica, pot reproduir algunes d'aquestes màquines, però no està a prop de reproduir-les.

Per a molts experts en tecnologia, l'AI mai serà capaç de imitar veritablement la complexitat del cervell humà, i per tant sempre serà innatament menys poderosa.

"Les AIs no estan dissenyades per sobreviure, sinó per resoldre problemes molt específics i centrats en la persona com jugar a escacs", va escriure Luc Claustres, doctor. finals de l'any passat. "Com a tals ni tan sols es poden adaptar a canvis lleus en el seu entorn sense reprogramar-los, mentre que els humans gestionen la precisió o canvien les regles fàcilment per ells mateixos".

AI i Intuició

També hi ha un argument corol·lari que es basa en el que podríeu anomenar el “problema de guàrdia creuat”, que s’exposa en els límits del que pot fer la intel·ligència artificial. AI i ML són fantàstics per obtenir informació des d'un conjunt de dades molt divers, però no són bons a la intuïció, cosa que els humans saben. És a dir, que en altres paraules, si contracteu un ordinador com a guàrdia creuat, podríeu tenir alguna funcionalitat, però podríeu tenir algunes llacunes força perilloses, amb les quals no confiàreu els vostres fills! (Per obtenir més informació sobre el potencial de l'AI per pensar en persones, vegeu Es pot implementar la creativitat en IA?)

Com a tal, els programes informàtics no poden entendre les nostres peculiaritats i idiosincràcies humanes en les formes de comunicar-nos i les formes de viure, de manera que és una altra limitació clau.

Per obtenir més informació sobre el motiu pel qual es poden desbordar les preocupacions sobre la superintel·ligència, un article cablejat de Kevin Kelly de l'any passat presenta algunes hipòtesis que haurien de ser vàlides perquè l'AI es fes càrrec de qualsevol forma pràctica. Aquests inclouen els següents:

  • Que la intel·ligència artificial ja supera el coneixement humà
  • Que la intel·ligència es pot ampliar sense límit
  • Aquesta super intel·ligència pot resoldre la majoria dels problemes que tenen els humans

Llegint l’article, veieu tots aquests supòsits explotats i tractats per mostrar, de nou, per què la cognició humana és tan especial.

No és que la tecnologia no esdevingui potent, sinó que ho serà. Es tracta de totes les diferents dimensions que s'han de dominar per fer l'IA més poderosa que els humans. Els humans han evolucionat al llarg de milions i milions d’anys: la intel·ligència artificial ha estat al voltant d’uns 20 anys i, tot i que ha fet avenços enormes, els humans encara tenen la mà superior i probablement ho faran per sempre.

Si llegiu enrere alguns d’aquests enllaços i mireu el que deien les persones, el que realment hauríem d’estar més preocupat és nosaltres mateixos. Existeix l’abundant potencial per als humans d’utilitzar malament la tecnologia. De fet, molts de nosaltres diríem que ja utilitzem malament moltes de les tecnologies que tenim. De manera que pot ser realment un lloc millor per inquietar l’angoixa i l’acció a l’hora de crear una IA ètica.