Juegos de poder, por: Leo Zuckermann.
Twitter: @leozuckermann
En los últimos días he leído varios artículos sobre el
peligro de la inteligencia artificial (IA) para la humanidad. Por ejemplo, un
grupo de mil líderes e investigadores del sector tecnológico solicitó una pausa
de seis meses en el entrenamiento de los poderosos sistemas de IA. Argumenta
que éstos podrían representar una potencial amenaza para la humanidad. En una
carta abierta, afirman que estamos en “una carrera fuera de control para
desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni
siquiera sus creadores pueden comprender, predecir o controlar de forma
fiable”. La declaración está firmada por el empresario Elon Musk y el
cofundador de Apple, Steve Wozniak, entre otros.
¿El fin de la humanidad? ¿No estarán exagerando?
El tema ya me había interesado desde hace mucho
tiempo. En 2015 entrevisté a Nick Bostrom, filósofo de la Universidad de Oxford
y experto en el fenómeno de la IA. Le pregunté cómo imaginar al mundo con esta
nueva tecnología que, según él, revolucionaría por completo lo que hoy somos.
Me respondió que, si hace 12 mil años le hubiéramos preguntado a un homo
sapiens que sólo comía plátanos cómo se imaginaba su mundo con una mejora
tecnológica, hubiera respondido: “Con más plátanos”. El sapiens no tenía la
posibilidad de imaginar en ese entonces una computadora, un avión o un celular.
Remató: todo lo que pueda yo responderte ahorita sobre el mundo con
inteligencia artificial sería como el sapiens diciendo “más plátanos”.
Así que no tenemos manera de imaginar las cosas que
pueden surgir con la IA. En este sentido, Bostrom propuso ponerles límites a
estos sistemas. Había que integrar en los algoritmos los valores universales
humanos para evitar que las súper inteligencias atentaran en contra de sus
creadores. Enseñarles, por ejemplo, que está prohibido matar.
Es, sin duda, un tema fascinante, sobre todo ahora que
empresas de tecnología ya lanzaron sistemas de inteligencia artificial al
público.
¿Quiere decir esto que ya estamos en peligro de
extinción tal y como lo alertan los mil signantes de la carta?
Fui a buscar la respuesta precisamente a ChatGPT,
sistema que ya está integrado al motor de búsqueda Bing de Microsoft. Después
de registrarme, le pregunté: “¿Puede la inteligencia artificial acabar con la
humanidad?”. A propósito la cuestioné en español para, aparte de ver qué tan
inteligente era, revisar qué tan bien escribía en nuestra lengua.
Ésta es la primera respuesta que obtuve: “Científicos
de la Universidad de Sunshine Coast en Australia han planteado que la inteligencia
artificial altamente desarrollada es capaz de destruir o causar daños
catastróficos a la humanidad, incluso sin intención maligna. Un grupo de
expertos en inteligencia artificial y ejecutivos de la industria tecnológica
pidieron una pausa de seis meses en el entrenamiento de los poderosos sistemas
de inteligencia artificial, argumentando que se trata de una potencial amenaza
para la humanidad. ¿Te gustaría saber más sobre este tema?”.
Así que, a la primera de cambios, me respondió sobre
la carta arriba citada. No me pareció una respuesta muy sofisticada que
digamos. Le solicité más información y me volvió a responder lo de la misiva.
Una repetición a la segunda de cambios. Muy mal.
Pedí más información y me dijo: “Científicos de Google
y Oxford han realizado un estudio con el que han llegado a la conclusión de que
es ‘probable’ que la IA acabe con la raza humana. Argumentan en su estudio que
la IA avanzada acabará con los humanos porque las máquinas terminarán
incentivándose para romper las reglas y competirán inevitablemente por sus
necesidades energéticas, dado los escasos y limitados recursos de la Tierra”.
Otra respuesta básica y con errores de sintaxis.
Días antes había leído un editorial de Yuval Harari y
otros alertando sobre el mismo tema. Entonces le cuestioné a ChatGPT sobre la
postura del autor de Sapiens. Aquí la respuesta:
“Harari afirma que los cerebros humanos serán
pirateados pronto si no descubrimos cómo regular la inteligencia Artificial.
Los comentarios de Harari reflejan ciertamente los peores temores de la
humanidad sobre la IA […] Harari sugiere que la gran cantidad de datos que se
recopilan ahora dará lugar a algoritmos cada vez más potentes que nos dirán
todo, desde qué estudiar hasta con quién casarse”.
Picado por la curiosidad, entonces le pregunté a
ChatGPT con quién tengo que casarme. Esto me contestó:
“No tienes que casarte con nadie si no quieres. La
elección de una pareja para casarse es una decisión muy personal y depende de
tus propios valores y deseos”.
Con estas respuestas, francamente no veo a estos
algoritmos poniendo en peligro a la humanidad. A lo mejor hay otros más
sofisticados, pero los que están disponibles al público, no.