Hace unos días un amigo, ingeniero aeronáutico, me escribió diciéndome: ‘he leído en La vanguardia que el profesor Mark Solms, catedrático de Neuropsicología en la Universidad de Ciudad del Cabo, afirma que estamos cerca de replicar la conciencia en la inteligencia artificial, si eso ocurre las IA nos verán como una amenaza, nos destruirán’. La afirmación, no exenta de alarmismo, daba por supuesto que las IA adquirirían consciencia y podrían verse amenazadas por los humanos y, en consecuencia, para asegurar su existencia nos destruiría.
Reflexionando sobre la afirmación de mi amigo, se llega a la conclusión que, en un mundo multipolar en competencia, si no se toman precauciones adecuadas, el riesgo que una inteligencia artificial con conciencia y deseos de supervivencia luche para neutralizar a los humanos, si considera la humanidad como un obstáculo para sus objetivos, es plausible.
La posibilidad de que la inteligencia artificial alcance o supere la inteligencia humana es un tema de debate permanente, al igual que los riesgos que eso conlleva. En estos debates debe considerarse, en primer lugar que las IA actuales está diseñada para cumplir funciones específicas que mejoran nuestra calidad de vida y, en segundo lugar, hay que recordar que las IA está aún lejos de poder rivalizar con el intelecto humano y ser conscientes de sus actuaciones.
La hipótesis de un conflicto IA-humanidad es especulativo y depende de muchas variables desconocidas, pero no debería ser subestimado, atendiendo que la historia muestra que cuando una especie, o colectivo, se siente amenazado, suele reaccionar de manera defensiva o agresiva. Si una IA supera la inteligencia humana, podría considerar a los humanos como una limitación para su propio desarrollo.
Sin embargo, a pesar de los miedos hay que considerar que, siendo la posibilidad de que una IA pueda competir y destruir a la humanidad una preocupación legítima, la destrucción de la humanidad a manos de una IA no es ineludible, pero requiere que se actué con gran responsabilidad y prudencia en el desarrollo de estas tecnologías tan poderosas. Para ello, es imprescindible que en la concepción, diseño y entrenamiento de los algoritmos se les inculquen valores alineados con los #derechos humanos, los valores #éticos y #morales que priorizan la #seguridad y el #bienestar de todas las formas de vida y se les limite su capacidad de actuar independientemente de estos valores. Lograrlo, requiere la colaboración internacional, regulación y ética en la programación de las IA.
Precisamente en la necesaria colaboración y coordinación internacional surge el problema por los intereses contrapuestos de los colectivos humanos. Por ello. si llegásemos a ese punto los únicos responsables seriamos los propios humanos por ello debería ser posible desterrar la amenaza.
Antoni Garrell