TEMOR

Elon Musk y miles de expertos piden pausar el desarrollo de la Inteligencia Artificial

Ejecutivos de tecnología e investigadores de inteligencia artificial pidieron frenar por seis meses el entrenamiento de la tecnología para poder regularla. "La humanidad en su conjunto podría perder el control de su propio destino", advirtieron

"Estamos un poco asustados", admitió hace unos días el CEO de la empresa que creó el ChatGPT. El modelo de lenguaje no para de sorprender, pero también siembra temor entre muchos expertos por su potencial de volverse peligroso para la sociedad. Por eso, varios ejecutivos de tecnología y los mejores investigadores de inteligencia artificial (IA), incluido Elon Musk, firmaron una petición para que el desarrollo vertiginoso de nuevas y poderosas herramientas de IA se pause por seis meses.

"¿Podría una máquina decidir que los humanos son una amenaza, concluir que sus intereses son diferentes a los nuestros o simplemente dejar de preocuparse por nosotros? Posiblemente", escribió Bill Gates entre sus predicciones para el futuro de la IA. Por eso es que los expertos firmaron la petición: una moratoria de seis meses o más le daría tiempo a la industria para establecer estándares de seguridad para el diseño de IA y evitar daños potenciales de las tecnologías de IA más riesgosas.

Las preocupaciones y el pedido de pausa se expusieron en un texto titulado "Pausen los grandes experimentos de IA: una carta abierta". La misiva fue coordenada por el Future of Life Institute, una organización sin fines de lucro, que incluye a Musk como asesor externo.

Entre las más de 1.000 firmas se encuentran las del cofundador de Apple, Steve Wozniak; el CEO de Estabilidad AI, Emad Mostaque; y los cofundadores del Center for Humane Technology, Tristan Harris y Aza Raskin, quienes criticaron las redes sociales y la tecnología de inteligencia artificial.

 

Los posibles peligros de la IA

La carta no pide que se detenga todo el desarrollo de IA, pero insta a las empresas a detener temporalmente los sistemas de capacitación más potentes que GPT-4, la tecnología lanzada este mes por la startup OpenAI respaldada por Microsoft Corp. Eso incluye la próxima generación de la tecnología de OpenAI, el GPT-5.

Tanto Musk como Wozniak se mostraron preocupados por la tecnología de IA. “Hay serios problemas de riesgo de IA”, dijo Musk en Twitter, quien fue uno de los primeros fundadores y patrocinadores financieros de OpenAI.

Competition has nothing to do with it. There are serious AI risk issues.

— Elon Musk (@elonmusk) March 24, 2023

De hecho, la propia OpenAI expresó la necesidad potencial de una "revisión independiente" de los futuros sistemas de IA para garantizar que cumplan con los estándares de seguridad. Los firmantes dicen que este momento ya llegó. 

“Los laboratorios de IA y los expertos independientes deberían usar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA que son rigurosamente auditados y supervisados por expertos externos independientes”, escribieron. “Estos protocolos deberían garantizar que los sistemas que se adhieren a ellos estén seguros más allá de toda duda razonable”.

La carrera por la IA no tiene freno

¿Tendrá algún efecto esta carta? Lo más probable es que no. Entre las empresas de tecnología y las nuevas empresas existe un fuerte deseo por duplicar la llamada IA generativa, una tecnología capaz de generar contenido original a partir de indicaciones humanas cuya popularidad se disparó con el ChatGPT.

Microsoft ya adoptó la tecnología para su motor de búsqueda Bing y otras herramientas. Google lanzó su propio modelo de lenguaje, y empresas como Adobe, Zoom Video Communications y Salesforce también introdujeron herramientas avanzadas de IA.

“Hoy comienza una carrera”, dijo el mes pasado el CEO de Microsoft, Satya Nadella. “Vamos a movernos, y movernos rápido”.

Para Max Tegmark, uno de los organizadores de la carta, presidente del Future of Life Institute y profesor de física en el Instituto Tecnológico de Massachusetts, una implementación rápida podría tener consecuencias no deseadas. “Es desafortunado enmarcar esto como una carrera armamentista. Es más una carrera suicida. No importa quién va a llegar primero. Simplemente significa que la humanidad en su conjunto podría perder el control de su propio destino”, dijo al Wall Street Journal

La carta completa puede leerse en este link.

Esta nota habla de: