Más de un millar de científicos, investigadores, ingenieros, desarrolladores y otros representantes de la ciencia el negocio han firmado una carta abierta en la que piden que se detengan todos los trabajos sobre redes neuronales avanzadas y tecnologías de IA (inteligencia artificial) para desarrollar mecanismos de seguridad en este ámbito.
El 22 de marzo se publicó en la página web del centro de estudios estadounidense Future of Life Institute (FOLI) una carta abierta dirigida a todos los laboratorios implicados en el desarrollo de la IA en la que se pide una pausa inmediata en la creación de “sistemas de IA más potentes que el GPT-4”. La carta sugiere una pausa mínima de seis meses, con el objetivo de “desarrollar e implantar conjuntamente un conjunto de protocolos de seguridad comunes” en el desarrollo de la IA.
En el momento de escribir estas líneas, las 10:00 (GMT+3) del 30 de marzo de 2023, 1.377 personas han firmado la carta, entre ellas destacados representantes del mundo empresarial como Elon Musk y Steve Wozniak, así como numerosos científicos de relevantes estructuras de investigación, directivos y empleados destacados de empresas privadas en el campo del desarrollo de la IA y las redes neuronales, investigadores independientes y otros representantes de la comunidad de expertos.
Los autores de la carta afirman que existen “graves riesgos para la sociedad y la humanidad” asociados a un mayor desarrollo incontrolado de las tecnologías de IA. En su opinión, deberían introducirse protocolos de seguridad comunes para el diseño y el desarrollo de la inteligencia artificial, y este proceso debería ser supervisado por “expertos externos independientes”.
La carta hace referencia a un artículo de Sam Altman, fundador de OpenAI, la empresa que desarrolló el algoritmo GPT-4. En el artículo se discuten los argumentos a favor de la inteligencia artificial general (IAG), se exponen los planes y la visión de la empresa al respecto y se afirma que existen “enormes riesgos” asociados a un desarrollo deficiente o a una mala gestión de este tipo de sistemas. Los responsables de FOLI lo expresan como “el riesgo de perder el control de nuestra civilización”.
El tema de la carta se reduce en última instancia a la necesidad de delegar la toma de decisiones en el desarrollo de la tecnología de IA en “líderes elegidos”, y de que la propia tecnología sea más “leal”. Según el FOLI, el campo de la inteligencia artificial debe ponerse bajo el control de “nuevos reguladores” para evitar “la perturbación económica y política de la democracia” que la IA puede provocar.
Por ello, los responsables del FOLI hacen un llamamiento a todos los actores clave de la industria para que se sumen a la pausa, que debe ser “pública y verificable”; de lo contrario, piden a los gobiernos que “intervengan y establezcan una moratoria”.
A modo de recordatorio, el desarrollo de las redes neuronales y la tecnología de IA es una de las tendencias informativas más activas de 2023. Está estrechamente relacionada con la industria de blockchain, tal y como declaró Max Krupyshev, CEO de CoinsPaid, en una entrevista durante ICE London.