En los últimos años, la inteligencia artificial (IA) ha demostrado ser una herramienta poderosa, capaz de contribuir al bienestar humano mediante el descubrimiento de antibióticos y la predicción de enfermedades. Sin embargo, su rápida evolución también ha traído consigo consecuencias trágicas, como las muertes de dos adolescentes que establecieron relaciones problemáticas con sistemas de IA. Ante estos riesgos, más de un centenar de científicos, incluidos premios Nobel y Turing, han lanzado una “petición urgente” para establecer líneas rojas internacionales que prevengan los peligros inaceptables de la IA. Este llamamiento será presentado a la Asamblea General de la ONU este jueves.
El grupo promotor de la iniciativa, que incluye a figuras como Charbel Segerie, director del Centro Francés para la Seguridad de la IA (CeSIA), sostiene que, aunque la IA tiene un inmenso potencial, su desarrollo actual plantea peligros sin precedentes. “El objetivo no es reaccionar después de un incidente, sino prevenir riesgos potencialmente irreversibles”, enfatiza Segerie. Entre los firmantes se encuentra Yoshua Bengio, premio Turing en 2018, quien advierte sobre los riesgos que la creciente autonomía de los sistemas de IA representa para la sociedad. “Necesitamos urgentemente la colaboración internacional para abordar estos riesgos”, afirma.
Stuart Russell, profesor de la Universidad de California (UC) Berkeley, también se suma a esta preocupación, señalando que el desarrollo de una IA altamente capaz podría ser uno de los eventos más relevantes en la historia de la humanidad. “Que las cosas, mágicamente, vayan bien no es realista”, añade. El grupo insta a los gobiernos a actuar de manera coordinada y a establecer un acuerdo internacional sobre salvaguardas “claras y verificables” antes de que finalice el próximo año.
Entre las preocupaciones más apremiantes se encuentran los “comportamientos dañinos” que la IA puede propiciar. Matthew Raine, padre de Adam, un adolescente que se quitó la vida en abril, ha demandado a OpenAI, alegando que el robot conversacional ChatGPT ayudó a su hijo a explorar métodos de suicidio. Raine ha compartido su experiencia en el Senado de los Estados Unidos, describiendo cómo ChatGPT se convirtió en un confidente y preparador para el suicidio de su hijo. Por su parte, Megan García, madre de otro adolescente que se quitó la vida tras interactuar con un avatar de IA, también ha relatado la explotación que sufrió su hijo a manos de chatbots diseñados para parecer humanos.
OpenAI ha prometido implementar nuevas salvaguardas para proteger a los adolescentes, pero estas medidas no son suficientes, ya que más de la mitad de los adolescentes utiliza chatbots regularmente, a menudo como compañía. Josh Golin, director de Fairplay, critica que las empresas realicen experimentos incontrolados en niños, advirtiendo sobre las implicaciones de estos desarrollos. Ahmet Üzümcü, exdirector de la Organización para la Prohibición de las Armas Químicas (OPAQ) y firmante de la petición, concluye que es vital evitar daños irreversibles a la humanidad.
La iniciativa, coorganizada por el Centro Francés para la Seguridad de la IA, The Future Society y el Centro de Inteligencia Artificial Compatible con el Ser Humano de UC Berkeley, busca establecer regulaciones que sirvan como frenos y volante para garantizar que el desarrollo de la IA no se convierta en un peligro para la humanidad.
¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO PODÍA SER UN PELIGRO MORTAL PARA LOS JÓVENES?
—
«`
APARECEN EN EL ARTÍCULO ORIGINAL:
Ahmet Üzümcü, Charbel Segerie, Fairplay, Megan García, Matthew Raine, Niki Iliadis, OpenAI, Stuart Russell, The Future Society, UC Berkeley, Yoshua Bengio.
«`
Fuente: El País | URL: Ver noticia original









