Nombre del autor:Tomas Cascante

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoVuelco en la pelea por la IA: Microsoft se hace con un 27% de OpenAI

Microsoft y OpenAI firman un acuerdo que redefine su colaboración a largo plazo

ZIP

Microsoft y OpenAI han firmado un acuerdo que redefine su colaboración a largo plazo. OpenAI se convierte en una corporación de beneficio público, y Microsoft adquiere una participación del 27% valorada en 135.000 millones de dólares.

Microsoft y OpenAI han formalizado un acuerdo definitivo que transforma su relación y establece las bases para una colaboración a largo plazo. Este acuerdo es significativo para el futuro de la inteligencia artificial, ya que OpenAI se convierte en una corporación de beneficio público (PBC), lo que implica un compromiso hacia el bien común, además de los objetivos empresariales. La participación de Microsoft en OpenAI ahora está valorada en aproximadamente 135.000 millones de dólares, lo que representa el 27% del capital diluido de OpenAI Group PBC, incluyendo a empleados, inversores y la fundación OpenAI.

El nuevo marco de colaboración mantiene a OpenAI como el socio exclusivo de Microsoft en modelos de inteligencia artificial avanzados. Microsoft conservará los derechos exclusivos de propiedad intelectual y de API en Azure hasta que se logre la Inteligencia Artificial General (AGI), un sistema hipotético capaz de realizar cualquier tarea cognitiva humana. Sin embargo, el acuerdo introduce cambios importantes, como la necesidad de que un panel independiente de expertos verifique la declaración de haber alcanzado la AGI. Además, los derechos de propiedad intelectual de Microsoft sobre modelos y productos se extenderán hasta 2032, incluyendo aquellos desarrollados después de la AGI, siempre con las debidas salvaguardas de seguridad.

El pacto también otorga mayor libertad a ambas empresas. OpenAI podrá desarrollar productos en colaboración con terceros, siempre que los servicios de API permanezcan exclusivos de Azure. Por su parte, Microsoft tendrá la capacidad de desarrollar sistemas de AGI de manera independiente o asociarse con otras entidades, aunque con limitaciones en la capacidad computacional si utilizan propiedad intelectual de OpenAI antes de la declaración formal de AGI.

Además, OpenAI ha firmado un nuevo contrato por valor de 250.000 millones de dólares en servicios de Azure, aunque Microsoft pierde su estatus como proveedor preferente de computación. OpenAI también podrá ofrecer acceso a sus APIs a agencias de seguridad nacional de Estados Unidos, independientemente del proveedor de la nube, y tendrá la opción de publicar modelos con pesos abiertos, siempre que cumplan con ciertos criterios de seguridad y capacidad.

Esta colaboración, que comenzó con la inversión de Microsoft en 2019, ha sido crucial para el desarrollo de modelos como GPT-4 y Copilot, integrando inteligencia artificial en productos como Office y Windows. Con este nuevo acuerdo, ambas empresas buscan consolidar su posición en la carrera global por la inteligencia artificial, en un contexto de creciente presión regulatoria y la necesidad de equilibrar innovación, competencia y seguridad.

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO PODÍA SER UN NEGOCIO RENTABLE?

Fuente: www.elconfidencial.com | https://www.elconfidencial.com/tecnologia/2025-10-28/microsoft-openai-ia-ai-inteligencia-artificial_4237055/

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoEEUU y Westinghouse invertirán 80.000 millones de dólares en reactores nucleares para alimentar la IA

EEUU, Westinghouse Electric, Cameco Corporation y Brookfield Asset Management invertirán 80.000 millones de dólares en nuevos reactores nucleares

ZIP

Westinghouse Electric, Cameco Corporation y Brookfield Asset Management se asocian con el Gobierno de EEUU para construir nuevos reactores nucleares por 80.000 millones de dólares, generando más de 100.000 empleos y apoyando el crecimiento de la inteligencia artificial.

Westinghouse Electric, Cameco Corporation y Brookfield Asset Management han formado una alianza estratégica con el Gobierno de Estados Unidos para acelerar el despliegue de energía nuclear en el país. Esta colaboración tiene como objetivo construir nuevos reactores nucleares por un valor de al menos 80.000 millones de dólares (68.740 millones de euros), lo que representa una inversión significativa en la infraestructura energética de la nación.

Los nuevos reactores emplearán la tecnología de Westinghouse, lo que no solo impulsará el crecimiento de la industria nuclear estadounidense, sino que también fortalecerá la cadena de suministro relacionada. Una vez que estos reactores estén operativos, se espera que generen energía fiable y segura, con una capacidad importante para abastecer centros de datos y computación, favoreciendo así el crecimiento de la inteligencia artificial en Estados Unidos.

Además, la alianza incluye mecanismos de reparto de beneficios que permitirán a la sociedad estadounidense participar en el valor financiero y estratégico a largo plazo que se generará a partir del crecimiento de la energía nuclear y la inversión en capacidades de inteligencia artificial. Se estima que cada proyecto Westinghouse AP1000 de dos unidades generará o mantendrá 45.000 empleos de manufactura e ingeniería en 43 estados, y la implementación a nivel nacional creará más de 100.000 empleos en la construcción.

Howard Lutnick, secretario del Departamento de Comercio de Estados Unidos, destacó que esta alianza histórica respalda los objetivos de seguridad nacional y mejora la infraestructura crítica del país. También mencionó que permitirá reconstruir la soberanía energética y crear empleos bien remunerados, posicionando a Estados Unidos a la vanguardia del renacimiento nuclear.

Chris Wright, secretario del Departamento de Energía, añadió que esta colaboración ayudará a materializar la visión del presidente Trump de revitalizar completamente a Estados Unidos y ganar la carrera global de la inteligencia artificial. Connor Teskey, presidente de Brookfield Asset Management, expresó que esta colaboración con el Gobierno de EEUU liberará el potencial que Westinghouse y la energía nuclear pueden ofrecer, acelerando el crecimiento de la inteligencia artificial y satisfaciendo la creciente demanda de electricidad y necesidades de seguridad energética a gran escala.

¿QUIÉN DIJO QUE LA ENERGÍA NUCLEAR NO PUEDE SER EL FUTURO DE LA INTELIGENCIA ARTIFICIAL?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoLlega Laia, el asistente telefónico conversacional de IA y gamificado que detecta las emociones del cliente

La inteligencia artificial de Deveco IT revoluciona los contact centers con Laia

ZIP

La empresa aragonesa Deveco IT presenta Laia, un asistente telefónico basado en inteligencia artificial, diseñado para optimizar la atención en contact centers. Laia realiza tareas automatizadas y reconoce emociones, mejorando la experiencia del cliente.

 

 

La inteligencia artificial (IA) está transformando diversos sectores, y el ámbito de los contact centers no es la excepción. La empresa aragonesa **Deveco IT**, con sede en **Zaragoza**, ha desarrollado un innovador asistente telefónico llamado **Laia**, que promete revolucionar la atención al cliente en áreas como salud, seguros, energía y recobros. Desde su lanzamiento en junio de 2023, Laia ha sido implementada en varias compañías, incluyendo **Seguratis**, **Kalibo Seguros**, **PG Corredores** y **B2B Energía**.

Laia se presenta como un «potenciador de los call centers», especialmente útil para empresas con plantillas reducidas que no pueden ofrecer asistencia telefónica continua. Este asistente no solo gestiona llamadas entrantes y salientes, sino que también realiza ventas cruzadas, programa citas médicas y maneja incidencias, todo ello con una voz natural que simula la conversación humana.

Una de las características distintivas de Laia es su capacidad para detectar emociones y sentimientos, lo que le permite mostrar empatía en situaciones críticas, como la apertura urgente de un parte de seguro. Gracias a esta funcionalidad, Laia puede derivar la llamada a un agente humano que mejor se ajuste a la situación del cliente, ya sea por género o por el nivel de empatía requerido.

La implementación de Laia es sencilla, permitiendo a las empresas configurarla fácilmente o contar con la ayuda de **Deveco IT** para integrarla con sus sistemas existentes. Además, el sistema registra todas las llamadas, proporcionando información valiosa sobre la duración, fecha y transcripción de cada conversación.

La expansión de Laia no se limita a España; también ha atraído el interés de empresas en **América Latina**, especialmente en el sector salud, donde se busca mejorar el seguimiento de citas médicas y recobros de asistencia sanitaria. Con una primera ronda de financiación de **100.000 euros** cerrada en febrero, **Deveco IT** busca atraer a inversores para impulsar aún más el crecimiento de Laia.

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO PODÍA SER EMPÁTICA? ¿QUIZÁS DEBERÍAN PREGUNTARLE A LAIA?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoAmazon anuncia el despido de 14.000 empleados

Amazon reducirá su plantilla en 14.000 puestos de trabajo

ZIP
Amazon ha anunciado la reducción de 14.000 puestos de trabajo en su plantilla corporativa como parte de un plan de reorganización. La vicepresidenta Beth Galetti destacó la importancia de la inteligencia artificial en este proceso de adaptación a nuevas demandas del mercado.

Amazon ha comunicado su decisión de reducir su plantilla corporativa en aproximadamente 14.000 puestos de trabajo, un movimiento que forma parte de un plan de reorganización interna. Este anuncio fue realizado por la compañía estadounidense el martes, y busca simplificar estructuras, eliminar niveles jerárquicos y redirigir recursos hacia áreas estratégicas como la inteligencia artificial y la logística. La vicepresidenta senior de Experiencia de Personas y Tecnología de Amazon, Beth Galetti, explicó que el objetivo de esta medida es «mantener una organización más ágil, con menos capas y mayor responsabilidad».

Galetti subrayó que la decisión se adopta con el fin de acelerar la toma de decisiones y garantizar que la empresa pueda «avanzar lo más rápido posible para sus clientes y su negocio». En este sentido, destacó la inteligencia artificial como «la tecnología más transformadora desde Internet», resaltando su papel crucial en la innovación y la eficiencia operativa.

El anuncio oficial de Amazon rebaja la cifra que algunos medios habían anticipado, que situaban los despidos en torno a 30.000 empleados. Según los datos proporcionados por la empresa, la reducción afectará exclusivamente al personal corporativo, es decir, aquellos trabajadores que desempeñan funciones administrativas y de oficina. Actualmente, Amazon cuenta con una plantilla global de aproximadamente 1,5 millones de personas, de las cuales unos 350.000 trabajan en labores corporativas.

En los últimos tres años, la empresa ha suprimido cerca de 27.000 puestos, lo que convierte este recorte en el ajuste más amplio desde 2022, cuando comenzó un proceso gradual de reestructuración. La compañía con sede en Seattle, Estados Unidos, ha anunciado que ofrecerá apoyo a los empleados afectados, otorgando un plazo de 90 días para buscar un nuevo puesto dentro de la organización. Durante este periodo, los candidatos internos tendrán prioridad en los procesos de selección para facilitar su recolocación.

A pesar de la reducción de plantilla, Amazon ha insistido en que continuará contratando en áreas estratégicas relacionadas con la inteligencia artificial, la computación en la nube y la logística avanzada. De cara a 2026, la multinacional prevé mantener un ritmo de contratación selectivo, concentrándose en los segmentos de mayor crecimiento y eficiencia operativa.

Este recorte se produce pocos días antes de la publicación de los resultados del tercer trimestre, prevista para este jueves. Los analistas estiman un aumento de la facturación de alrededor del 11% interanual, aunque también anticipan una ligera caída del beneficio neto debido al impacto de la inversión en inteligencia artificial y los costes asociados a la reorganización interna.

Finalmente, este ajuste se enmarca en una tendencia más amplia de recortes laborales en el sector tecnológico estadounidense, donde, según datos de la plataforma Layoffs.fyi, más de 98.000 empleados han perdido su trabajo en lo que va de 2025 en unas 216 empresas del sector.

¿QUIÉN DIJO QUE EL FUTURO ERA BRILLANTE CUANDO SE REDUCEN PUESTOS DE TRABAJO EN LA ERA DIGITAL?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoUna investigación de UManresa sobre ética demuestra que la inteligencia artificial cae en las mismas contradicciones que las personas

Una investigación de UManresa demuestra que la IA cae en las mismas contradicciones éticas que las personas

ZIP

Estudiantes de UManresa han demostrado que la inteligencia artificial (IA) generativa presenta contradicciones éticas similares a las humanas. La investigación, realizada en el curso 2025-2026, incluyó encuestas a un millar de ciudadanos sobre dilemas éticos.

Los estudiantes del tercer curso del Grado en Gestión de la Sociedad Digital de UManresa han llevado a cabo una investigación reveladora que muestra que los sistemas de inteligencia artificial (IA) generativa cometen las mismas contradicciones éticas que los seres humanos. Este hallazgo se basa en un estudio realizado durante el primer semestre del curso académico 2025-2026, donde los alumnos diseñaron una encuesta que fue distribuida a un millar de ciudadanos.

La encuesta abarcó diversas categorías de conflictos éticos, incluyendo temas familiares, relaciones sentimentales, educación, y cuestiones laborales. Los encuestados fueron seleccionados para reflejar una variedad de edades, sexos y niveles educativos, asegurando así una representación amplia de la sociedad catalana, española y europea. Cada uno de los diez estudiantes se encargó de un centenar de encuestados, logrando que los porcentajes de respuestas variaran entre el 50% y el 100% según el alumno.

Además de los resultados cuantitativos, los estudiantes complementaron su investigación con entrevistas grabadas y editadas en vídeo, donde un grupo reducido de participantes discutió dilemas éticos. Estas conversaciones enriquecieron la base de datos, proporcionando un enfoque cualitativo a los hallazgos iniciales. A pesar de la capacidad de la IA para procesar grandes volúmenes de información y ofrecer propuestas éticas basadas en teorías filosóficas, los resultados mostraron que las respuestas podían variar significativamente dependiendo de quién realizara la pregunta.

Los autores del estudio, pertenecientes a la primera promoción del Grado en Gestión de la Sociedad Digital, observaron que la IA tiende a mantener una postura neutral, evitando respuestas extremas. Sin embargo, también se encontraron con resultados sorprendentes, como la falta de respuesta ante el machismo o una actitud ambigua respecto al sufrimiento animal y la corrupción política.

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO TIENE SUS PROPIAS INCOHERENCIAS?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoEl nuevo delito de moda: difundir imágenes íntimas de menores generadas con Inteligencia Artificial

El nuevo delito de moda: difundir imágenes íntimas de menores generadas con Inteligencia Artificial

ZIP

La difusión de imágenes íntimas de menores generadas por Inteligencia Artificial se ha convertido en una práctica alarmante. Expertos advierten sobre sus consecuencias legales y sociales, mientras que las víctimas enfrentan un creciente riesgo de bullying y violencia digital.

En un reciente episodio de *Espejo Público*, se abordó la creciente preocupación por la difusión de imágenes íntimas de menores generadas mediante Inteligencia Artificial. Este fenómeno ha sido objeto de debate, especialmente tras la revelación de que la creación de estas imágenes es accesible para cualquier persona con acceso a Internet. La investigación incluyó la participación de una experta en IA, quien explicó cómo esta tecnología puede ser utilizada para crear contenido dañino sin necesidad de conocimientos técnicos avanzados. Esto plantea serias preguntas sobre la seguridad y el bienestar de los menores en el entorno digital.

Durante la investigación, se presentó a las colaboradoras del programa imágenes generadas artificialmente, lo que provocó reacciones de sorpresa y preocupación por la veracidad de las mismas. La madre de una adolescente, **Miriam Al Adib**, compartió su angustia al recordar cómo su hija se enfrentó a una situación similar, describiendo su experiencia como un momento de «gran preocupación e impotencia». Esta práctica no solo se considera un delito, sino que también se clasifica como violencia digital, de género y sexual, lo que resalta la gravedad de la situación.

Los testimonios de alumnos también fueron reveladores, ya que muchos afirmaron que recibir una imagen de este tipo de una compañera les dejaría «muy sorprendidos» y podría llevar a un rechazo social. En el plató, se generó un intenso debate sobre la naturaleza de estas imágenes y su impacto en la percepción pública. **Susanna Griso** y **Susana Díaz** expresaron su consternación, mientras que **Miquel** planteó una inquietante reflexión sobre la identidad y la percepción de la realidad en la era digital.

La investigación también exploró la posibilidad de manipular imágenes para incluir marcas o tatuajes falsos, lo que podría llevar a la difamación de las víctimas. Este aspecto resalta la necesidad urgente de abordar el problema desde una perspectiva legal y educativa, para proteger a los menores de estas prácticas abusivas. La realidad es que, aunque la tecnología ofrece herramientas poderosas, su uso irresponsable puede tener consecuencias devastadoras.

¿QUIÉN DIJO QUE LA REALIDAD NO PUEDE SER MANIPULADA EN LA ERA DIGITAL?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoMaría Aperador, experta en ciberseguridad: “Si quieres saber si estás hablando con una inteligencia artificial, estas tres señales pueden salvarte de engaños, fraudes y manipulaciones”

Cómo detectar si estás hablando con una inteligencia artificial: tres señales clave según experta en ciberseguridad

ZIP
La experta en ciberseguridad, María Aperador, comparte tres señales para identificar interacciones con inteligencia artificial. Advierte sobre la repetición de palabras, el uso excesivo de muletillas y un lenguaje formal como indicadores de engaños en línea.

El avance de la inteligencia artificial (IA) ha transformado la comunicación digital, pero también ha generado riesgos significativos de manipulación y fraude. María Aperador, reconocida experta en ciberseguridad y conocida en Instagram como @mariaperador, ha compartido recientemente en sus redes sociales tres señales que pueden ayudar a los usuarios a identificar cuándo están interactuando con una IA. Según Aperador, es cada vez más común encontrarse con vídeos generados por inteligencia artificial o conversar con perfiles que no son humanos. Su recomendación es difundir esta información entre amigos y familiares para mitigar los riesgos de engaños en línea.

El primer indicio que destaca la experta es la repetición de palabras y expresiones del usuario. Las IA tienden a imitar el tono y la forma de hablar de la persona con la que interactúan, un fenómeno que se conoce como alineación forzada en el ámbito de la ciberseguridad. Aunque este comportamiento busca generar cercanía, los humanos suelen percibir rápidamente la falta de naturalidad en la conversación.

La segunda señal son las muletillas excesivas. Aperador explica que las inteligencias artificiales no comprenden la función social de las muletillas, por lo que tienden a repetir palabras como “bueno” o “este…” de manera artificial. Este patrón es especialmente evidente en chatbots avanzados que intentan simular una conversación más espontánea.

El tercer signo es el uso de un lenguaje excesivamente formal. Las frases generadas por IA suelen ser demasiado estructuradas y uniformes, con saludos siempre iguales y gramática impecable, lo que contrasta con la variabilidad natural de la comunicación humana. Este detalle puede ser crucial para detectar interacciones artificiales.

Un estudio reciente de la Universidad de Stanford sobre el reconocimiento de contenido generado por IA revela que más del 60% de los participantes pudieron identificar textos generados por modelos como GPT-3 mediante patrones de repetición y formalidad en el lenguaje. Esto subraya la importancia de los indicadores que señala Aperador.

La especialista enfatiza que, aunque actualmente la inteligencia artificial no logra engañar completamente a los humanos, “la tecnología avanza rápido y pronto las diferencias serán mucho menos evidentes”. Por ello, estar informado se convierte en la mejor herramienta de protección frente a estos riesgos.

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO PUEDE SER HUMANA? ¡PARECE QUE ESTAMOS EN UN MUNDO DONDE LO ARTIFICIAL SE VUELVE REAL!

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoAdobe Firefly impulsa la edición y generación con modelos de IA propios y de socios como ElevenLabs, Google y OpenAI

Adobe amplía su oferta de inteligencia artificial en Firefly con nuevos modelos

ZIP

A partir del 28 de octubre, Adobe ha integrado nuevos modelos de inteligencia artificial en Firefly, incluyendo el Firefly Image Model 5 y colaboraciones con ElevenLabs y Gemini, mejorando así las herramientas creativas para los creadores de contenido.

Adobe ha anunciado la expansión de su plataforma Firefly, incorporando nuevos modelos de inteligencia artificial que mejoran las capacidades de edición y generación de contenido. Esta actualización fue presentada en la conferencia Adobe MAX, donde la empresa destacó la importancia de ofrecer a los creadores acceso a «los mejores modelos de IA con las mejores herramientas creativas para vídeo, audio, imágenes y diseño».

Entre las novedades, destaca el Firefly Image Model 5, un modelo desarrollado internamente por Adobe, que permite la generación y edición de imágenes con una resolución nativa de 4MP, eliminando la necesidad de escalado. Este modelo ya está disponible en beta pública, lo que permite a los usuarios experimentar con sus capacidades.

Además de sus propios desarrollos, Adobe ha integrado modelos de terceros, como el ElevenLabs Multilingual v2, que se especializa en la generación de voces, y Topaz Bloom, que se centra en el escalado de imágenes. Estos nuevos modelos se suman a una lista de herramientas existentes que incluyen Flux 1.1 de Black Forest Labs, Veo 3.1 de Google, Imagen 4 y Gemini 2.5 Flash Image (Nano Banana), entre otros.

Otra característica interesante es la introducción de ‘Modelos Personalizados de Firefly’, que actualmente se encuentra en fase de beta privada. Esta opción permitirá a los creadores personalizar sus propios modelos de IA, facilitando la generación de series completas de recursos con coherencia visual y un estilo único, lo que representa un avance significativo en la personalización de herramientas creativas.

Con estas innovaciones, Adobe busca consolidar su posición en el mercado de la inteligencia artificial aplicada a la creación de contenido, ofreciendo a los usuarios una plataforma más robusta y versátil para sus proyectos creativos.

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO PUEDE SER CREATIVA?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoDe red social en red social y ahora también enciclopedia: Elon Musk lanza Grokipedia, su proyecto para «corregir» a Wikipedia

La verdad según Musk

ZIP

Elon Musk lanza Grokipedia, una enciclopedia digital que, según él, corrige el sesgo de Wikipedia. Sin embargo, la plataforma omite hechos incómodos y presenta versiones sesgadas de la historia, favoreciendo su propia narrativa ideológica.

Elon Musk, conocido por ser el CEO de Tesla y de X (anteriormente Twitter), ha presentado su nueva creación: Grokipedia, una enciclopedia digital que promete corregir lo que él considera un sesgo ideológico de izquierda en Wikipedia. Sin embargo, un análisis de su contenido revela que Grokipedia parece más un intento de reescribir la historia a favor de Musk y sus aliados.

Un ejemplo claro se encuentra en la entrada sobre **George Floyd**. Mientras que Wikipedia documenta su asesinato a manos de un policía blanco, lo que provocó protestas globales contra el racismo y la brutalidad policial, Grokipedia presenta a Floyd como un criminal, omitiendo cualquier mención a la violencia policial que resultó en su muerte. Este tipo de manipulación de la información no es un caso aislado. Grokipedia también hace afirmaciones infundadas, como que la pornografía agravó la epidemia del sida, o que las redes sociales fomentan la transexualidad, lo que refleja un sesgo ideológico evidente.

Cuando se trata de **Elon Musk**, la narrativa cambia drásticamente. Su biografía en Grokipedia se extiende a más de 11.000 palabras, pero omite referencias a su polémico saludo nazi en la fiesta de inauguración del segundo mandato de **Donald Trump** y su apoyo a líderes ultraderechistas. En contraste, figuras como **Tommy Robinson**, un activista británico condenado por incitación al odio, son presentadas de manera favorable, lo que pone de manifiesto la falta de objetividad de la plataforma.

En cuanto a temas delicados como el «genocidio en Gaza», Grokipedia ofrece una breve entrada titulada «acusaciones palestinas», sin contexto ni datos, mientras que Wikipedia proporciona información detallada, incluyendo fotos y testimonios sobre la ofensiva israelí. Musk sostiene que su enciclopedia busca combatir el sesgo ideológico, pero parece más bien una herramienta diseñada para blanquear su imagen y la de sus aliados.

A pesar de sus defectos, Wikipedia se distingue por su apertura y transparencia, mientras que Grokipedia se presenta como una plataforma opaca y parcial, donde la inteligencia artificial decide qué información se debe ocultar o modificar.

¿QUIÉN DIJO QUE LA VERDAD NO SE PUEDE MANIPULAR? ¿QUIÉN?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoEl Papa: «Nuestra actitud hacia la tecnología no puede ser hostil, forma parte del plan de Dios para la creación»

El Papa León XIV insta a las escuelas católicas a reforzar la formación digital de los docentes

ZIP

El Papa León XIV ha publicado una carta apostólica solicitando a las escuelas católicas que mejoren la formación digital de sus docentes y promuevan el acceso a la educación para los más necesitados, en el marco del 60 aniversario de un documento clave.

El Papa León XIV ha emitido una carta apostólica titulada «Trazando nuevos mapas de esperanza», con motivo del 60 aniversario de la declaración «Gravissimum educationis», un documento fundamental sobre la educación católica que surgió del Concilio Vaticano II. En este texto, el pontífice estadounidense subraya la importancia de que los centros educativos católicos refuercen la formación de sus docentes, especialmente en el ámbito digital, para evitar la tecnofobia y fomentar un acceso equitativo a la educación para los más necesitados.

El uso de la tecnología es uno de los temas centrales que León XIV ha abordado desde el inicio de su pontificado. En su carta, enfatiza la necesidad de «creatividad pastoral» para mejorar la formación docente, valorizar la didáctica activa y promover un aprendizaje que fomente la ciudadanía responsable. El Papa advierte que «nuestra actitud hacia la tecnología nunca puede ser hostil», ya que el progreso tecnológico es parte del plan divino para la creación. Sin embargo, aclara que «lo importante no es la tecnología, sino el uso que hacemos de ella».

León XIV también menciona que la inteligencia artificial y los entornos digitales deben ser utilizados para proteger la dignidad humana, la justicia y el trabajo. Destaca que «ningún algoritmo puede sustituir la poesía, el amor o la alegría del descubrimiento», lo que pone de relieve la necesidad de un enfoque humano en la educación.

En el ámbito universitario, el Papa sugiere que se requieren «menos cátedras y más mesas donde sentarse juntos», promoviendo un ambiente de colaboración y diálogo sin jerarquías innecesarias. Además, reafirma que «la familia sigue siendo el primer lugar educativo» y que las escuelas católicas deben colaborar con los padres en la educación de sus hijos, en lugar de sustituir su papel.

León XIV critica el enfoque mercantilista de la educación que mide su valor en términos de funcionalidad y utilidad práctica. Asegura que «donde el acceso a la educación sigue siendo un privilegio, la Iglesia debe empujar las puertas e inventar caminos», subrayando que perder a los pobres significa perder la esencia misma de la educación.

Finalmente, el Papa concluye su carta invitando a las comunidades educativas a «desarmar las palabras» y educar con «lenguajes no violentos», promoviendo la reconciliación y la construcción de puentes en lugar de muros.

¿QUIÉN DIJO QUE LA EDUCACIÓN NO PUEDE SER UNA AVENTURA EN EL MUNDO DIGITAL?

Scroll al inicio
Verificado por MonsterInsights