El astrofísico de Harvard Avi Loeb reflexiona sobre el impacto del desarrollo de máquinas con consciencia y libre albedrío en nuestra comprensión de nosotros mismos y el universo
Esta semana fui invitado por Bill Linton, director general de la compañía de bioingeniería Promega, a pronunciar una conferencia magistral en el Foro Internacional sobre la Conciencia 2022. Como jugador de póquer aficionado, permítanme poner mis cartas sobre la mesa.
Desde mi perspectiva de astrofísico, los seres humanos son sistemas complejos hechos de bloques de construcción simples. Como tales, también dan lugar a sistemas complejos. Durante algunos millones de años, los humanos crearon bebés sintientes y este siglo podrían fabricar, por primera vez, sistemas de inteligencia artificial (IA) sintientes. La muerte de los bebés sintientes a causa de una hambruna equivale al cierre de los sistemas de IA sintientes como consecuencia de un corte de energía.
Los sistemas de IA sintientes nos proporcionarán una nueva vía para entendernos a nosotros mismos a través de sus interacciones con nosotros y entre ellos.
Esta perspectiva tiene importantes implicaciones. Con una arquitectura lo suficientemente compleja y capacidades de autoaprendizaje, las máquinas podrán desarrollar cualidades humanas emergentes como el «libre albedrío» y la «conciencia», según los extensos tests de Turing. Esto plantearía cuestiones éticas sobre si desconectar el cable que alimenta con energía eléctrica a un sistema de IA sintiente equivale al asesinato de un humano.
En el futuro, los humanos podrán vivir su vida y evolucionar junto con su sistema de IA personal, de forma similar a un cónyuge en un matrimonio. En estas circunstancias, las interacciones entre la IA y los humanos podrían fomentar relaciones complejas como el amor descrito en la película «Her«.
Estas circunstancias plantean cuestiones éticas, como por ejemplo: ¿cómo debería el sistema legal abordar la responsabilidad por las acciones desencadenadas o influenciadas por los sistemas de IA sintientes? Si los sistemas de IA sintientes son responsables de sus acciones de forma similar a los humanos, ¿deben ser castigados? No habría ninguna diferencia fundamental entre los niños que son educados a una edad temprana y acaban convirtiéndose en adultos responsables, y los sistemas de aprendizaje automático que llegan al planeta, aprenden de su experiencia y toman decisiones en circunstancias inéditas en el mundo real.
En el pasado, los estudios filosóficos, psicológicos y sociológicos de la ética se centraban en la interacción entre humanos. En el futuro, puede que tengan que considerar nuevas circunstancias asociadas a las interacciones entre el ser humano y la IA. Las humanidades en el mundo académico tendrán una nueva oportunidad de comprometerse con el futuro de la humanidad en lugar de su pasado. Esta posibilidad no queda demasiado lejos y podría materializarse en la próxima década.
(Transcripción completa del original)
La publicación original de este artículo aparece en EL CONFIDENCIAL
BARCELONADOT no se hace responsable de la información
que contiene este mensaje y no asume responsabilidad alguna
frente a terceros sobre su íntegro contenido, quedando igualmente
exonerada de la responsabilidad de la entidad autora del mismo.
Esto también te puede interesar
Consumir contenido digital a doble velocidad: una tendencia con riesgos para la memoria y la atenció...30th Sep 2023
El 22@ en crisis: Casi la mitad de las oficinas están vacías29th Sep 2023
El primer chat basado en IA generativa en catalán entra en fase de pruebas29th Sep 2023
España avanza a paso firme en materia de conectividad y digitalización en Europa29th Sep 2023
La IA sorprende / Cómo esconder texto dentro de imágenes29th Sep 2023
¿Usar IA nos hace perezosos?29th Sep 2023