0040 OPINION

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoPor una independencia digital europea

Los recientes conflictos entre los gobiernos democráticos y las grandes tecnológicas como X (antes Twitter) y Telegram evidencian la necesidad de que Europa desarrolle sus propias infraestructuras digitales para proteger su democracia.

La negativa de Elon Musk a acatar las órdenes judiciales en Brasil y la detención del CEO de Telegram, Pável Dúrov, en Francia, han puesto de manifiesto que los gigantes tecnológicos están retando cada vez más a los gobiernos. Estas situaciones destacan la urgente necesidad de que Europa tome control de su soberanía digital y desarrolle infraestructuras digitales propias, sujetas al control democrático y que protejan los valores europeos.

La Ley de Servicios Digitales (DSA) es un primer paso en esta dirección, pero aún es insuficiente. La reciente detención de Dúrov, acusado de no controlar el uso de su plataforma para actividades delictivas, muestra el delicado equilibrio entre libertad de expresión y responsabilidad que deben mantener estas plataformas. Los grupos de extrema derecha están usando estas situaciones para defender su discurso, mezclando la responsabilidad tecnológica con la defensa de sus intereses, lo que pone en peligro los valores democráticos.

La creación de infraestructuras digitales públicas, sujetas a control democrático y libres de intereses empresariales, es crucial para garantizar que internet siga siendo un espacio que sirva al bien común. Si Europa no actúa pronto, los grandes monopolios tecnológicos podrían socavar los principios fundamentales de la democracia y distorsionar el debate público.

¿Cómo podrá Europa encontrar el equilibrio entre regulación y promoción de la innovación para asegurar su independencia digital sin sacrificar los valores democráticos?

·····················
Este artículo es un resumen comentado basado en la tribuna original publicada en El País el 10/09/2024. Puedes leer el artículo completo aquí.
··········

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoOmar Hatamleh, un español en la cumbre mundial de la IA: «Dentro de 50 años va a ser casi imposible distinguir un robot humanoide de una persona»

Omar Hatamleh, jefe de Inteligencia Artificial en el Centro Goddard de la NASA, analiza el impacto de la IA en el empleo, la medicina y la sociedad, alertando sobre los desafíos éticos y sociales que surgirán en las próximas décadas con la evolución de la tecnología.

Omar Hatamleh, de origen granadino y actual jefe de IA en el Centro Goddard de la NASA, se ha convertido en una voz clave en el debate sobre el futuro de la inteligencia artificial (IA). Durante una entrevista reciente, subrayó que estamos en los primeros pasos de una revolución tecnológica que transformará profundamente nuestra vida. Hatamleh señala que, aunque la IA ya está presente en diversas industrias, desde la medicina hasta la ingeniería, el verdadero cambio se producirá cuando lleguemos a la Inteligencia Artificial General (IAG), una forma avanzada de IA que será capaz de realizar múltiples tareas de manera simultánea, emulando las capacidades cognitivas humanas.

Hatamleh prevé que en los próximos diez años la IAG podrá reemplazar trabajos que hoy requieren creatividad y razonamiento, lo que plantea un dilema tanto en el ámbito laboral como en la formación de las futuras generaciones. “Estamos solo gateando”, afirma, en referencia a la etapa actual del desarrollo de la IA, anticipando que los próximos años serán críticos para la humanidad en términos de adaptación a esta nueva realidad. Advierte que, a medida que la IA avance, desaparecerán muchos empleos tanto en sectores manuales como en otros que dependen de la inmigración, lo que conllevará efectos geopolíticos significativos.

En paralelo, la medicina será uno de los campos más beneficiados por estos avances. Hatamleh habla del desarrollo de gemelos digitales, que permitirán tratamientos totalmente personalizados, así como de la posibilidad de imprimir órganos humanos, lo que extendería la esperanza de vida a niveles insospechados. Pero no todo es positivo. Omar también alerta sobre el «lado oscuro» de la IA, que abarca desde amenazas a la ciberseguridad hasta la posibilidad de que los robots humanoides se conviertan en compañeros inseparables de las personas, con todas las implicaciones sociales y éticas que esto supone.

Estos cambios tan radicales en el trabajo, la medicina y nuestras interacciones sociales nos obligarán a reflexionar profundamente sobre cómo integrar la IA de forma segura y ética, para evitar que el avance tecnológico sobrepase nuestra capacidad de control.

·····················
Este artículo es un resumen comentado basado en la noticia original publicada en El Mundo el 09/09/2024. Puedes leer el artículo completo aquí.
··········

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoNUEVO LIBRO: NEXUS / Yuval Noah Harari alerta sobre los riesgos de la inteligencia artificial: “Una amenaza existencial”

Yuval Noah Harari nos ofrece una visión inquietante sobre el impacto de la inteligencia artificial (IA) en su nuevo libro Nexus, argumentando que esta tecnología podría convertirse en una amenaza existencial para la humanidad. Harari, conocido por sus obras como Sapiens, destaca que las preocupaciones sobre la IA no son exageradas. En su análisis, compara el auge de la IA con otros momentos históricos en los que la tecnología transformó radicalmente la sociedad, como la Revolución Industrial, pero advierte que las consecuencias de la IA podrían ser mucho más devastadoras.

A través de una mirada a la historia, Harari nos recuerda que las nuevas tecnologías a menudo han traído consigo no solo avances, sino también catástrofes. El desarrollo de la Revolución Industrial, por ejemplo, fue acompañado de guerras, genocidios y un daño ambiental que aún estamos intentando revertir. Para Harari, la IA representa una nueva fase en este ciclo, pero con un potencial destructivo mucho mayor, ya que es la primera tecnología capaz de tomar decisiones y generar ideas de forma autónoma.

El autor subraya que, aunque en el pasado la humanidad ha aprendido a utilizar las tecnologías para su beneficio, este proceso ha sido doloroso y lleno de errores. La pregunta que plantea es si podemos permitirnos esos errores con una tecnología tan poderosa como la IA, que podría no solo reconfigurar la sociedad, sino también poner en riesgo la existencia misma de la especie humana. La IA, dice Harari, no es simplemente una herramienta; es un agente con la capacidad de influir y decidir por sí misma, lo que la hace incomparablemente más peligrosa que cualquier tecnología anterior.

Comentario:

El análisis de Harari se enmarca en un debate actual sobre el verdadero impacto de la inteligencia artificial. Mientras algunos ven en la IA una herramienta revolucionaria que promete mejorar la salud, la educación y otros aspectos de la vida humana, Harari nos invita a reflexionar sobre el coste potencial de este progreso. Su comparación con la Revolución Industrial es especialmente pertinente, ya que destaca cómo los grandes avances tecnológicos han venido acompañados de grandes desafíos y sufrimiento. Si la humanidad logró finalmente beneficiarse de la Revolución Industrial, fue solo después de experimentar guerras mundiales, genocidios y colapsos ecológicos. Harari nos advierte que, con la IA, el margen de error es mucho menor. ¿Podremos aprender a gestionar esta tecnología antes de que sea demasiado tarde, o estamos destinados a repetir los errores del pasado con consecuencias mucho más graves? La perspectiva que ofrece Harari no es solo una llamada de atención, sino un reto para los líderes y la sociedad en general: ¿cómo manejaremos la primera tecnología que no solo ejecuta órdenes, sino que tiene el potencial de tomar el control?

·····················
Este artículo es un resumen comentado basado en la noticia original publicada en El Español el 3 de septiembre de 2024. Puedes leer el artículo completo aquí.
·····················

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoLa líder de Signal advierte sobre la IA: “Una moda pasajera que no durará”

Meredith Whittaker, presidenta de Signal, cuestiona el futuro de la inteligencia artificial, calificándola de burbuja que pronto estallará debido a sus altos costos y falta de rentabilidad.

En un contexto donde la inteligencia artificial (IA) es vista por muchos como una tecnología transformadora, Meredith Whittaker, presidenta de Signal y exdirectiva de Google, adopta una postura escéptica. Según Whittaker, la IA generativa, pese a su popularidad, es una moda que no tiene un futuro sostenible. En una entrevista con Wired, subrayó que los costos de producción asociados al entrenamiento de modelos de IA son extremadamente altos, lo que pone en duda la viabilidad económica de estas tecnologías.

Whittaker menciona que incluso empresas líderes como OpenAI están enfrentando dificultades financieras significativas. La creación de inteligencia artificial requiere enormes inversiones, y los ingresos obtenidos no siempre compensan los gastos. Este desajuste económico podría llevar a que la IA, a pesar de su auge actual, no logre mantenerse en el tiempo.

La presidenta de Signal también señala a Nvidia como un indicador clave para el futuro de la IA. Dado que Nvidia es responsable de fabricar los chips esenciales para el funcionamiento de estos sistemas, cualquier señal de dificultades en esta empresa podría ser el preludio del colapso de la burbuja de la IA.

Más allá de las cuestiones financieras, Whittaker no es la única que se muestra cautelosa. Dentro de OpenAI, varios altos ejecutivos han abandonado la compañía, lo que algunos interpretan como una señal de alarma ante los riesgos éticos y comerciales que plantea la inteligencia artificial. Aunque algunos consideran que la IA podría ser una revolución tecnológica, otros, como Whittaker, creen que estamos ante una burbuja que eventualmente estallará.

¿Podrá la IA superar las barreras económicas y tecnológicas que amenazan su supervivencia, o estamos a punto de presenciar el fin de su corta pero intensa vida?

·····················
Este artículo es un resumen comentado basado en la noticia original publicada en ComputerHoy el 3 de septiembre de 2024. Puedes leer el artículo completo aquí.
·····················

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0040 OPINION

iconoBARCELONADOT estrena plataforma: más contenidos y mayor participación

Hoy martes, 3 de septiembre de 2024, estrenamos nueva Plataforma. Bueno, tal vez sería más adecuado decir que estrenamos proyecto. Porque eso es lo que es BARCELONADOT.COM: un nuevo proyecto en una nueva plataforma, con nuevos contenidos, nuevas secciones, y un enfoque más participativo. Hemos trabajado con ilusión y dedicación para ofrecer un espacio renovado que no solo informe, sino que también conecte, inspire y motive a todos nuestros lectores.

NUEVOS ACTORES
Vamos a invitar a las asociaciones, colegios profesionales, patronales y al ecosistema empresarial de Catalunya a participar
 activamente, aportando testimonios y experiencias de sus asociados que enriquezcan la información y aporten valor a nuestra comunidad. Creemos firmemente que la colaboración y el intercambio de ideas son fundamentales para construir un conocimiento más profundo y diverso. Esta invitación la haremos extensiva a lo largo del año al resto de España y a Hispanoamérica.

CONTENIDOS VIVOS
Vamos a reforzar nuestros contenidos vivos
, aquellos que capturan la esencia y autenticidad de cada evento a través de testimoniales y entrevistas en audio y video. Creemos en el poder del paralenguaje, en cómo el tono de voz, la entonación y las expresiones faciales pueden transformar un simple testimonio en una conexión emocional profunda y duradera. Con nuestras entrevistas y WebDocs, no solo preservamos la memoria del evento, sino que proyectamos su impacto hacia el futuro, convirtiendo cada palabra y gesto en una historia que trasciende el momento y sigue resonando en el tiempo.

NUEVOS CONTENIDOS
Hemos ampliado nuestras secciones para reflejar la importancia y actualidad de temas clave como la
 inteligencia artificial, donde ofrecemos un seguimiento al día de las últimas novedades y avances en este campo revolucionario. A través de nuestra sección de tecnologías de la información y la comunicación (TIC), exploramos cómo estas herramientas están transformando el empleo y la economía global. En el ámbito audiovisual, destacamos cómo la innovación está remodelando la industria del cine, la televisión y otros medios, mientras que nuestras entrevistas y webdocs profundizan en historias personales y eventos que marcan tendencia. También hemos lanzado una sección dedicada a mujeres en STEAM, celebrando y promoviendo la inclusión y el liderazgo femenino en ciencia y tecnología, y un espacio para youtubers, donde el conocimiento digital se comparte de manera accesible y dinámica. Cada una de estas secciones ha sido cuidadosamente diseñada para ofrecer una visión completa y actualizada de los temas que más nos interesan y nos preocupan como sociedad, con el objetivo de despertar el interés, la curiosidad, y el deseo de seguir aprendiendo.

MÁS PARTICIPACIÓN
No queremos ser simplemente una plataforma de noticias; aspiramos a ser un punto de encuentro donde la voz de cada uno cuente, donde las ideas se escuchen y se discutan. Por eso, también estamos implementando nuevas herramientas de participación para que nuestros lectores puedan interactuar con nosotros y entre sí, aportando sus puntos de vista y enriqueciendo el debate.

En BARCELONADOT creemos que el futuro es colaborativo, y este proyecto es nuestro aporte a ese futuro. Estamos ilusionados con lo que está por venir y deseamos que nos acompañéis en este viaje, que juntos construyamos algo grande, algo que trascienda fronteras y haga eco en todos los rincones del mundo hispanohablante.

¡Bienvenidos a esta nueva etapa!

DATE DE ALTA EN NUESTRO BOLETÍN DIARIO DE NOTICIAS

 

 

 

 

0000 NOTICIA VISIBLE, 0040 OPINION

iconoAgencia Tributaria e Inteligencia Artificial: un futuro inevitable

Opinión | La Inteligencia Artificial y la Agencia Tributaria
IA y la Agencia Tributaria: ¿nueva era en la administración fiscal?
La transformación de la relación fiscal con la llegada de la IA

La Agencia Estatal de Administración Tributaria (AEAT) se encuentra en un proceso de transformación acelerado, impulsado por la Inteligencia Artificial (IA). Tal como detalla Javier Martín Fernández, catedrático de Derecho Financiero y Tributario, en un reciente artículo, la AEAT está implementando una estrategia de IA supervisada, diseñada para mejorar la eficiencia en sus actuaciones y la asistencia al contribuyente. Este enfoque se basa en un marco de seguridad y protección de derechos, donde la intervención humana sigue siendo esencial, garantizando que las decisiones automatizadas no se basen únicamente en los resultados de los sistemas de IA.

La AEAT busca utilizar la IA para optimizar sus operaciones, particularmente en áreas como la información, la asistencia al contribuyente y la prevención del fraude fiscal. A través de herramientas como los chatbots, la IA ya se está utilizando para corregir posibles errores en las declaraciones de impuestos o para alertar a potenciales no declarantes. Sin embargo, la Agencia asegura que actualmente no utiliza IA en los procedimientos de control o selección de contribuyentes, y que las decisiones finales siempre estarán supervisadas por personas.

Este desarrollo plantea un cambio significativo en la relación entre la AEAT y los contribuyentes, así como con los asesores fiscales. Estos últimos deben adaptarse a esta nueva realidad tecnológica, gestionando cuidadosamente los riesgos y aprovechando las oportunidades que la IA ofrece. Aquellos que dominen esta tecnología podrán establecer un nuevo estándar en su campo, mientras que los que no lo hagan enfrentarán un futuro incierto.

La implementación de la IA en la AEAT también pone de relieve la importancia de garantizar que los datos utilizados sean fiables, actuales y no sesgados. El cuidado en el tratamiento de estos datos es crucial para evitar errores que puedan afectar negativamente a los contribuyentes. Además, la AEAT sigue cumpliendo con la normativa comunitaria y nacional de protección de datos, asegurando que la recopilación y procesamiento de información se realice de manera proporcional y adecuada a los fines legítimos de la administración tributaria.

En resumen, la IA está marcando el inicio de una nueva era en la administración fiscal, una era donde la eficiencia y la precisión se verán potenciadas por la tecnología, pero siempre bajo la supervisión y control humano. Esta transformación plantea tanto desafíos como oportunidades, y será clave para los profesionales del ámbito fiscal adaptarse a esta nueva realidad.

Este enfoque de la AEAT, aunque prometedor, también invita a reflexionar sobre las implicaciones éticas y legales de la creciente dependencia de la IA en la administración pública. ¿Hasta qué punto se puede confiar en que las decisiones tomadas por estos sistemas sean justas y equitativas? ¿Cómo se asegura que los derechos de los contribuyentes no se vean comprometidos en el proceso? Estas son preguntas que necesitarán respuestas claras a medida que la IA continúe integrándose en la vida diaria.

·····················
Este artículo es un resumen comentado basado en la noticia original publicada en Confilegal el 27/08/2024. Puedes leer el artículo completo aquí.
·····················

0000 NOTICIA VISIBLE, 0020 NOTICIAS- IA, 0040 OPINION

icono¿La IA consciente puede destruir la humanidad? / Antoni Garrell

Hace unos días un amigo, ingeniero aeronáutico, me escribió diciéndome: ‘he leído en La vanguardia que el profesor Mark Solms, catedrático de Neuropsicología en la Universidad de Ciudad del Cabo, afirma que estamos cerca de replicar la conciencia en la inteligencia artificial, si eso ocurre las IA nos verán como una amenaza, nos destruirán’. La afirmación, no exenta de alarmismo, daba por supuesto que las IA adquirirían consciencia y podrían verse amenazadas por los humanos y, en consecuencia, para asegurar su existencia nos destruiría.

Reflexionando sobre la afirmación de mi amigo, se llega a la conclusión que, en un mundo multipolar en competencia, si no se toman precauciones adecuadas, el riesgo que una inteligencia artificial con conciencia y deseos de supervivencia luche para neutralizar a los humanos, si considera la humanidad como un obstáculo para sus objetivos, es plausible.

La posibilidad de que la inteligencia artificial alcance o supere la inteligencia humana es un tema de debate permanente, al igual que los riesgos que eso conlleva. En estos debates debe considerarse, en primer lugar que las IA actuales está diseñada para cumplir funciones específicas que mejoran nuestra calidad de vida y, en segundo lugar, hay que recordar que las IA está aún lejos de poder rivalizar con el intelecto humano y ser conscientes de sus actuaciones.

La hipótesis de un conflicto IA-humanidad es especulativo y depende de muchas variables desconocidas, pero no debería ser subestimado, atendiendo que la historia muestra que cuando una especie, o colectivo, se siente amenazado, suele reaccionar de manera defensiva o agresiva. Si una IA supera la inteligencia humana, podría considerar a los humanos como una limitación para su propio desarrollo.

Sin embargo, a pesar de los miedos hay que considerar que, siendo la posibilidad de que una IA pueda competir y destruir a la humanidad una preocupación legítima, la destrucción de la humanidad a manos de una IA no es ineludible, pero requiere que se actué con gran responsabilidad y prudencia en el desarrollo de estas tecnologías tan poderosas. Para ello, es imprescindible que en la concepción, diseño y entrenamiento de los algoritmos se les inculquen valores alineados con los #derechos humanos, los valores #éticos y #morales que priorizan la #seguridad y el #bienestar de todas las formas de vida y se les limite su capacidad de actuar independientemente de estos valores. Lograrlo, requiere la colaboración internacional, regulación y ética en la programación de las IA.

Precisamente en la necesaria colaboración y coordinación internacional surge el problema por los intereses contrapuestos de los colectivos humanos. Por ello. si llegásemos a ese punto los únicos responsables seriamos los propios humanos por ello debería ser posible desterrar la amenaza.

Antoni Garrell

0000 NOTICIA VISIBLE, 0020 NOTICIAS- IA, 0040 OPINION

iconoEl riesgo real de las IA son sus amos / Antoni Garrell

El pasado lunes terminaba mi post “¿La IA consciente puede destruir la humanidad?”, afirmando que si llegásemos a ese punto los únicos responsables seriamos los humanos y que por ello debería ser posible desterrar la amenaza. Mi afirmación me ha hecho pensar sobre qué humanos tienen la capacidad de desterrar la amenaza y si su voluntad es o será evitarla.

La respuesta se debe encuadrar en que la inteligencia artificial está transformando nuestra sociedad en todos los ámbitos, ya sea en la forma de trabajar, en cómo tomamos decisiones o en como desarrollamos nuestras actuaciones, por consiguiente, es importante preguntarse ¿quién controla los algoritmos de IA y quien se beneficia de su poder?, porque el riesgo no radica en las IA en sí, sino en sus propietarios, porque podrán influir en el comportamiento de las personas, analizando preferencias y comportamientos a partir de sus interacciones en línea; moldear opiniones, potenciando creencias o efectuando manipulaciones sutiles que alteren la percepción de la realidad; dirigir procesos productivos a nivel global por la automatización de los mismos y condicionar el desarrollo económico al poder decidir cómo, dónde y qué se produce.

Este posible dominio de los mercados, del flujo de información y del comportamiento de los ciudadanos. por parte de organizaciones o individuos que posean el control de las IA puede comportar una concentración de poder sin precedentes dibujando un escenario preocupante, si las decisiones que afectan a millones de personas están en manos de unos pocos. Un riesgo que se amplifica, si las IA están exclusivamente en manos de gobiernos autoritarios que buscan limitar las libertades individuales controlando a sus ciudadanos mediante la censura y la vigilancia masiva para perpetuarse en el poder y, a la vez, alterar los modelos sociales y económicos de los países considerados enemigos.

El peligro real no reside en la IA en sí misma, sino en quienes la controlan. La tecnología, por sí sola, es neutral; el uso que se le dé y como se le entrene es lo que determina su impacto. Si permitimos que el control de estos poderosos algoritmos recaiga en manos de unos pocos, corremos el riesgo de crear un mundo donde la desigualdad y la manipulación sean la norma y donde la opresión se digitalice y perpetúe.

Por eso, es crucial que los gobiernos de los sistemas democráticos y las organizaciones supranacionales como la Unión Europea tomen medidas, no sólo para garantizar que el desarrollo y la implementación de la IA se realicen de manera ética y equitativa, mediante marcos regulatorios que eviten la concentración de poder, sino que también inviertan decididamente en su desarrollo para que sea un bien público.

Soy de los que cree que el futuro con la IA es prometedor, pero es preciso asegurarnos de que esté en manos de todos para aprovechar todo su potencial, sin poner en riesgo nuestra libertad y autonomía como individuos y como sociedad.

Antoni Garrell

0000 NOTICIA VISIBLE, 0020 NOTICIAS- IA, 0040 OPINION

iconoIntegrar la IA en la educación es más eficaz que confiar solo en la regulación.

A medida que la inteligencia artificial (IA) evoluciona rápidamente, la educación debe ser una prioridad para gestionar sus riesgos. Fomentar el pensamiento crítico e integrar herramientas de IA en la educación es esencial para abordar los desafíos que plantea la tecnología.

En un mundo cada vez más influido por la inteligencia artificial generativa (Gen-AI), el debate sobre cómo gestionar sus riesgos se intensifica. Aunque la regulación suele proponerse como una solución, Aaron Kalman sostiene que la educación debería estar en primer plano. La capacidad de pensar críticamente, adaptarse y aprender será crucial a medida que la IA siga transformando nuestras vidas. La educación fomenta la vigilancia y el compromiso proactivo, capacitando a las personas para mantenerse informadas sobre los avances de la IA y los posibles riesgos. Además, integrar herramientas de IA en la vida cotidiana, desde las escuelas hasta los lugares de trabajo, prepara a las futuras generaciones para un mundo impulsado por la IA. Si bien las regulaciones como la Ley de IA de la UE son importantes, podrían no estar a la altura del ritmo acelerado de los avances tecnológicos. La educación, en cambio, ofrece un enfoque más sostenible para gestionar los riesgos de la IA al promover un uso responsable y aprovechar los beneficios que aporta esta tecnología.

*** Información extractada del artículo original publicado en The Jerusalem Post***

0000 NOTICIA VISIBLE, 0020 NOTICIAS- IA, 0040 OPINION

icono“La IA tiene un enorme potencial para hacer al ser humano más inteligente” / Takeo Kanade

Takeo Kanade destaca el enorme potencial de la IA para mejorar la inteligencia humana.
Los avances en visión artificial permiten aplicaciones sorprendentes, pero también conllevan desafíos éticos.
El código ético en tecnología es vulnerable a ser modificado por aquellos con malas intenciones.

El pionero en visión artificial, Takeo Kanade, subraya los retos éticos de la inteligencia artificial, destacando que aunque la tecnología puede ser programada con buenas intenciones, siempre existirá la posibilidad de que sea utilizada para fines maliciosos.

El profesor Takeo Kanade, pionero en visión artificial 3D y catedrático en la Universidad Carnegie Mellon, reflexiona sobre los avances y desafíos éticos que plantea la inteligencia artificial (IA). Reconocido por sus contribuciones en áreas como el reconocimiento facial y la conducción autónoma, Kanade advierte que, aunque la tecnología tiene un gran potencial para mejorar la inteligencia humana, siempre estará sujeta a ser reprogramada para usos indebidos. Señala que la capacidad de los robots para ver y procesar información ya supera a la de los humanos en ciertos aspectos, pero esto también abre la puerta a dilemas éticos significativos, como la creación de imágenes falsas que pueden manipular la percepción. Kanade sostiene que es responsabilidad de la sociedad regular y controlar el uso de estas tecnologías, ya que la tecnología en sí misma es neutra. A pesar de los riesgos, ve un futuro prometedor en la aplicación de la IA para ofrecer una educación personalizada que se adapte a las necesidades individuales de los estudiantes, lo que considera clave para incrementar la inteligencia y el aprendizaje.

*** Información extractada del artículo original publicado en La Vanguardia***

Scroll al inicio
Verificado por MonsterInsights