Nombre del autor:Tomas Cascante

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa IA de Google se actualiza para conversar contigo según tu estado de ánimo y emociones: así funciona

Recibe la edición impresa en PDF en tu correo

Google mejora Gemini con audio nativo para conversaciones más naturales

Google ha lanzado mejoras significativas en su inteligencia artificial Gemini, incluyendo audio nativo que permite interacciones más expresivas y naturales. Esta función, antes exclusiva de los Pixel 10, ahora está disponible en todos los dispositivos Android, mejorando la comunicación al interpretar emociones y personalizar la voz del asistente.

Google ha presentado avances en su inteligencia artificial Gemini, especialmente en su versión 3.0, que promete una experiencia más enriquecedora para los usuarios. Una de las innovaciones más destacadas es la introducción del audio nativo en Gemini Live, que permite mantener conversaciones más expresivas y naturales. Esta funcionalidad, que inicialmente estaba limitada a los dispositivos Pixel 10, ha sido ampliada a todos los dispositivos Android, según informa 9to5Google.

El audio nativo fue presentado oficialmente en la actualización Gemini Live 2.5 Flash Live en agosto y tiene como objetivo mejorar la calidad de las interacciones. Gracias a esta característica, Gemini puede interpretar el tono, la entonación y las emociones del usuario, lo que le permite adaptar sus respuestas de manera más efectiva. Por ejemplo, si el asistente detecta que el usuario está estresado, puede optar por responder con un tono más calmado. De igual manera, si percibe tristeza, ajustará su respuesta a un tono más animado, lo que resulta en una comunicación más humana y cercana.

Además de esta funcionalidad, Google ha implementado la opción de personalizar la voz del asistente. Los usuarios ahora pueden elegir entre diferentes acentos, como británico o australiano, y ajustar la velocidad de respuesta, lo que contribuye a una conversación más fluida y cómoda.

Otra de las novedades es la guía visual, que permite a los usuarios utilizar la cámara de su móvil para reconocer objetos. Esta herramienta es particularmente útil, ya que permite enfocar un cajón desordenado y pedir a Gemini que ayude a encontrar un objeto específico. Cuando el asistente identifica el objeto, lo marcará en la pantalla, facilitando así su localización.

Con estas mejoras, Google busca no solo hacer que la interacción con la inteligencia artificial sea más efectiva, sino también más natural y humana, acercando la tecnología a la experiencia diaria de los usuarios.

«¿Estamos realmente preparados para tener conversaciones más humanas con una inteligencia artificial?»

¿QUIÉN DIJO QUE LAS MÁQUINAS NO PUEDEN SER MÁS HUMANAS QUE NOSOTROS?

Fuente: www.20minutos.es | Ver noticia original

Fuente: www.20minutos.es | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono“La desinformación ya existía; la IA solo la hace más barata”

Beth Noveck aboga por un control democrático de las herramientas de IA en beneficio público

Beth Noveck, experta en tecnología y exdirectora de Tecnología de EE.UU., destaca la importancia de un control democrático sobre la inteligencia artificial (IA) para mejorar la gobernanza. En la Cumbre Mundial de Gobierno Abierto en Vitoria, subrayó que la IA debe ser accesible y segura, y que su uso debe centrarse en fortalecer la democracia y la participación ciudadana.

La Cumbre Mundial de Gobierno Abierto celebrada en Vitoria reunió a expertos en tecnología y gobernanza, entre ellos Beth Simone Noveck, quien fue la primera directora de Tecnología de EE.UU. bajo la administración de Barack Obama. Noveck, actualmente profesora en la Northeastern University y estratega jefe de IA de Nueva Jersey, aboga por un uso responsable y democrático de las herramientas de inteligencia artificial.

Durante su intervención, Noveck enfatizó que la tecnología actual, aunque imperfecta, tiene el potencial de mejorar la forma en que los gobiernos interactúan con la ciudadanía. A lo largo de 30 años, la web ha facilitado el diálogo, pero ha dificultado que las instituciones escuchen efectivamente a la población. Noveck recordó su experiencia en la Casa Blanca, donde aprendió sobre el poder del servicio público y la importancia de conectar a las instituciones con la inteligencia colectiva de la ciudadanía.

El concepto de gobierno abierto ha evolucionado en los últimos 15 años, convirtiéndose en un movimiento global. Noveck destacó ejemplos de éxito como Decidim, una plataforma de participación del Ayuntamiento de Barcelona, que se considera un modelo a seguir en el ámbito de la participación pública. También mencionó la plataforma Decidir de Madrid, que se basa en estándares abiertos.

En cuanto a la aplicación de la IA, Noveck argumentó que esta debería generar información accesible para todos, independientemente de su nivel educativo. La IA puede transformar el gobierno en un espacio de conversación, pero aún queda mucho por aprender para optimizar su uso. Además, subrayó la importancia de utilizar los datos disponibles de manera efectiva para mejorar la gestión pública, como en la optimización del tráfico o la respuesta de emergencias.

Sin embargo, Noveck advirtió sobre los riesgos de permitir que empresas como Elon Musk, Mark Zuckerberg y Jeff Bezos controlen el espacio público y la información. Propuso que la gobernanza de estas herramientas debe ser democrática y abierta, en lugar de estar sujeta a intereses corporativos. La privacidad también fue un tema central, ya que muchas herramientas de IA requieren el uso de datos personales, lo que genera preocupaciones sobre la protección de la información.

Noveck también cuestionó la necesidad de pagar por el acceso a la IA, argumentando que esto podría excluir a comunidades y grupos vulnerables. La inclusión en la revolución de la IA es fundamental para garantizar que nadie se quede atrás.

Finalmente, Noveck reflexionó sobre el impacto de la tecnología en la democracia, sugiriendo que, aunque existen riesgos, la IA y las nuevas tecnologías pueden ser herramientas para fortalecer la democracia, siempre que se utilicen de manera adecuada.

“¿Estamos realmente preparados para asumir el control democrático de la inteligencia artificial, o preferimos dejar que unos pocos decidan por nosotros?”

¿QUIÉN DIJO QUE LA DEMOCRACIA NO PUEDE SER UNA APLICACIÓN MÓVIL?

Fuente: www.lavanguardia.com | Ver noticia original

Fuente: www.lavanguardia.com | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLa IA se prepara para revolucionar el diagnóstico de los trastornos mentales

La inteligencia artificial podría revolucionar el diagnóstico de trastornos mentales, mostrando una precisión superior al 90% en la detección de condiciones como la depresión y la esquizofrenia. Sin embargo, su implementación enfrenta retos significativos relacionados con la privacidad de los datos de los pacientes, que son esenciales para su entrenamiento.

La inteligencia artificial (IA) está emergiendo como una herramienta potencialmente transformadora en el diagnóstico y tratamiento de trastornos mentales, un campo que actualmente enfrenta una grave escasez de terapeutas y métodos efectivos. Un estudio reciente publicado en la revista Nature Computational Science revela que la IA puede alcanzar una precisión superior al 90% en la identificación de síntomas de trastornos como la depresión y la esquizofrenia, analizando patrones en el lenguaje y en las expresiones faciales que son a menudo imperceptibles para el ser humano. Esta capacidad de análisis multimodal, que combina texto, voz y rasgos faciales, podría hacer que la atención a la salud mental sea más accesible y precisa.

Sin embargo, el uso de la IA en este contexto presenta un desafío significativo: la protección de la privacidad de los pacientes. Para entrenar estos modelos de IA, se requieren datos sensibles, que incluyen grabaciones de terapia que contienen información identificable. Esta necesidad plantea serias preocupaciones sobre la privacidad, ya que la filtración de datos podría resultar en consecuencias graves para los pacientes, como discriminación laboral o chantaje.

Los terapeutas humanos evalúan la salud mental a través de señales verbales y visuales, y la IA puede ser entrenada para detectar patrones similares. Por ejemplo, la depresión se asocia con expresiones faciales y patrones de habla específicos, mientras que la ansiedad puede manifestarse en la dificultad para mantener el contacto visual. Sin embargo, el desarrollo de la IA para la salud mental se ve obstaculizado por los riesgos de privacidad que implica.

Para abordar estos desafíos, los autores del estudio proponen estrategias que se dividen en dos categorías: la privacidad de los datos y la privacidad del modelo. La primera implica proteger la información antes de que llegue al modelo, a través de técnicas como la anonimización. Sin embargo, esta técnica puede degradar la calidad de los datos y no siempre es suficiente para evitar la reidentificación.

Una alternativa es la generación de datos sintéticos, que permite crear conjuntos de datos nuevos que imitan las características de los datos reales sin comprometer la privacidad. Sin embargo, la creación de datos sintéticos que sean clínicamente útiles sigue siendo un reto.

La segunda estrategia se centra en el entrenamiento consciente de la privacidad, que integra la protección en el proceso de aprendizaje del modelo. Técnicas como la Privacidad Diferencial y el Aprendizaje Federado permiten entrenar modelos sin compartir datos sensibles. No obstante, estas técnicas pueden reducir la precisión del modelo, lo que genera un dilema entre privacidad y utilidad.

El equilibrio entre proteger la confidencialidad del paciente y mantener la eficacia diagnóstica es el núcleo del problema. La investigación propone un enfoque integral que comienza con la recopilación ética de datos y el consentimiento informado del paciente, seguido de técnicas de anonimización o generación de datos sintéticos, y métodos de entrenamiento que preserven la privacidad. Finalmente, los modelos resultantes deben ser evaluados exhaustivamente para asegurar tanto su privacidad como su utilidad clínica antes de ser utilizados en la práctica.

«¿Estamos dispuestos a sacrificar la privacidad de los pacientes en nombre de un diagnóstico más preciso?»

¿QUIÉN DIJO QUE LA PRIVACIDAD NO ES UN LUXO EN LA ERA DE LA IA?

Fuente: La Opinión de Málaga | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoTrump, el piloto de caza que bombardea las manifestaciones con toneladas de heces

Trump, el piloto de caza que bombardea las manifestaciones con toneladas de heces

Donald Trump ha logrado una tregua en Gaza y busca lo mismo en Ucrania, mientras enfrenta el cierre del Gobierno de EE.UU. por falta de fondos. A pesar de la crisis, comparte un vídeo paródico en el que se burla de manifestantes, lo que genera críticas y preguntas sobre su conexión con la realidad.

Donald Trump ha conseguido una tregua en Gaza y ahora intenta lograr lo mismo en Ucrania. Sin embargo, a nivel interno, se enfrenta al cierre del Gobierno más grave en el reciente pasado de Estados Unidos, con cientos de miles de funcionarios enviados a casa y muchos despedidos por correo electrónico, lo que ha interrumpido servicios generales. A pesar de esta crisis, el presidente de EE.UU. ha encontrado tiempo para el humor, compartiendo un vídeo en su red social donde se parodia a sí mismo. En el vídeo, aparece con una corona real pilotando un caza de combate que bombardea a manifestantes contrarios a su política con… heces.

El caza lleva el emblema ‘King Trump’ y la banda sonora que acompaña la acción es ‘Danger Zone’ de Kenny Loggins, famosa por su inclusión en la película ‘Top Gun’ de 1986. Trump, un amante de la cultura popular de las décadas de 1970 y 1980, ha tenido una relación cercana con figuras del cine y la música de esa época. Por ejemplo, en 1988, llevó al elenco de ‘Rocky’ a su casino durante una pelea de boxeo y, en agosto pasado, premió a Sylvester Stallone con un galardón del Centro Kennedy a las artes escénicas.

Curiosamente, Kenny Loggins, autor de la famosa canción, ha criticado a Trump y ha participado en marchas en su contra. A pesar de esto, el presidente ha logrado que sus seguidores acojan con satisfacción su respuesta a lo que los republicanos han calificado como «manifestaciones antiamericanas». El vídeo no solo se publicó en Truth Social, sino también en la cuenta oficial de la Casa Blanca, lo que puede interpretarse como una respuesta del Gobierno a las protestas de siete millones de estadounidenses que salieron a las calles en 2.500 ciudades para criticar la «deriva autoritaria» del Ejecutivo republicano.

Los medios demócratas han reprochado a Trump su desprecio hacia estas manifestaciones, que se llevaron a cabo bajo el lema ‘No King’. Las críticas han surgido, sugiriendo que el presidente se comporta como un soberano que ignora al pueblo. Además, el vicepresidente JD Vance también ha publicado un vídeo similar, mostrando a Trump disfrazado de monarca ante demócratas arrodillados, incluyendo a Nancy Pelosi.

Las manifestaciones han sido las más multitudinarias en décadas, con un ambiente festivo y símbolos populares, como la rana de los activistas de Portland. Líderes de la izquierda, como Bernie Sanders y Cory Booker, también han participado en estas movilizaciones. Aunque Trump ha afirmado que no se considera un rey, su tendencia a disfrazarse de monarca y utilizar esta imagen ha sido evidente en varias ocasiones, como cuando publicó una portada simulada de la revista ‘Time’ con la leyenda ‘Larga vida al rey’. Este comportamiento parece ser parte de su estrategia para conectar con sus seguidores y responder a las críticas.

«¿Es el humor de Trump una forma de desviar la atención de los problemas serios que enfrenta su Gobierno?»

¿QUIÉN DIJO QUE LA POLÍTICA NO PODÍA SER UN CIRCO?

Fuente: Canarias7 | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoCongreso Inteligencia Artificial para emprendedores y pymes: gratuito pero de plazas limitadas

El Congreso Digital ZAC celebra su quinto aniversario en Zaragoza, convirtiendo a Etopia en el epicentro de la inteligencia artificial y el marketing digital, con ponencias de expertos y talleres prácticos, diseñado para emprendedores y profesionales del sector. La inscripción es gratuita, pero las plazas son limitadas.

El Congreso Digital ZAC ha alcanzado su quinto aniversario, consolidándose como un evento clave en Zaragoza, que se celebra en Etopia, Centro de Emprendimiento, Innovación y Tecnología. Este congreso se centra en la inteligencia artificial (IA), el marketing digital y el emprendimiento, y está diseñado para emprendedores, profesionales, pequeñas y medianas empresas (pymes) y startups. El objetivo principal es mostrar cómo la innovación y la IA están transformando las prácticas empresariales actuales.

El evento se ha estructurado para ofrecer a los asistentes la oportunidad de intercambiar conocimientos y fortalecer redes de contacto, además de mantenerse al día con las últimas tendencias del sector. El programa ha sido cuidadosamente planificado, incluyendo ponencias inspiradoras y talleres prácticos que abarcan diversas temáticas relevantes.

La jornada matinal comenzará a las 9:15 horas y se extenderá hasta las 14:00 horas. La recepción de asistentes incluirá la entrega de un ‘Welcome Pack’, seguida de la bienvenida oficial, que estará a cargo de Adriana Oliveros y Aroa Soria, coorganizadora del evento. La primera ponencia magistral será presentada por Jesús Hijas, un reconocido emprendedor y consultor en innovación tecnológica, quien hablará sobre ‘Eleva tu creatividad a la potencia de la Inteligencia Artificial’.

Entre los destacados del programa matutino se encuentra una mesa de debate titulada ‘Realidad tecnológica y empresarial: Retos y Oportunidades’, que contará con la participación de Carolina Álvarez, Directora de Competitividad e Innovación en CEOE Aragón; Natalia García, Subdirectora de Club Cámara Zaragoza; y Luis Martín, Presidente de AJE Zaragoza. Esta mesa será moderada por Marta Gascón, Redactora Jefa de 20Bits. Posteriormente, Álvaro Fontela, CEO y cofundador de Raiola Networks, ofrecerá una charla sobre ‘La realidad del SEO frente a la inteligencia artificial: ¿qué ha cambiado y qué no?’.

La sesión vespertina, que se desarrollará de 16:15 a 20:30 horas, comenzará con una nueva recepción y bienvenida. Entre los ponentes se encuentra Violeta Zapata, consultora de comunicación en GFS Consulting, quien presentará ‘Comunicación con propósito: el lenguaje que la IA no puede copiar’. También participará Andy Parra, Project Manager en Adidas Global y Profesor de ESIC Zaragoza, quien hablará sobre ‘Ya no hay marketing sin IA: escala tu negocio’. El bloque de ponencias concluirá con Miguel Florido, director de la Escuela Marketing & Web, que abordará las ‘Aplicaciones prácticas de la IA al marketing digital’.

El congreso culminará con la entrega de premios de los sorteos #DigitalZAC y un momento de networking patrocinado por Ambar y Martin Martin. Además, se habilitará un espacio formativo denominado IA Space, dedicado exclusivamente a la inteligencia artificial, donde se ofrecerán talleres prácticos en paralelo a las sesiones de la tarde. Entre los talleres, Manuela Delgado, asesora en National Geographic de ciencia y tecnología, profundizará en Agentes de IA y casos de uso reales. Carmen Pellicer y David Santana de CESTE enseñarán a prototipar como un ingeniero, y Chema Andrés, Technical Lead en t2ó, mostrará casos prácticos de integración con API en ChatGPT. La inscripción al evento es gratuita, pero las plazas son limitadas, lo que subraya la importancia y el interés que genera este congreso en el ámbito de la innovación y la tecnología.

«¿Estamos realmente preparados para la revolución que la inteligencia artificial traerá a nuestros negocios y vidas cotidianas?»

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO PUEDE SER HUMANA?

Fuente: LA RAZÓN | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoUnos 3.000 docentes se forman este curso en Inteligencia Artificial

Cerca de 3.000 docentes de la Región de Murcia recibirán formación en Inteligencia Artificial durante el curso 2025-2026. La Consejería de Educación y Formación Profesional ha programado más de 600 horas de formación en 40 actividades, que abarcan desde herramientas de IA hasta su aplicación en diversas áreas educativas, como matemáticas y Formación Profesional.

La Región de Murcia ha puesto en marcha una ambiciosa iniciativa para capacitar a casi 3.000 docentes en el uso de la Inteligencia Artificial (IA) durante el curso 2025-2026. Esta formación, organizada por el Centro de Profesores y Recursos (CPR) bajo la supervisión de la Consejería de Educación y Formación Profesional, incluye más de 600 horas de capacitación repartidas en 40 actividades diferentes. Los cursos abarcarán temas como las herramientas de IA, estrategias para transformar el aprendizaje, su aplicación en la enseñanza de las matemáticas, las enseñanzas artísticas y la Formación Profesional, así como el uso de Google Gemini, entre otros contenidos.

El consejero de Educación y Formación Profesional, Víctor Marín, ha subrayado la importancia de la IA en el ámbito educativo, afirmando que esta tecnología permite adaptar los contenidos al ritmo y estilo de aprendizaje de cada alumno. Además, prepara a los estudiantes para un entorno profesional cada vez más digitalizado, fomenta el uso responsable de la tecnología y ayuda a optimizar la gestión del aula, liberando tiempo para que los docentes se concentren en sus alumnos. También se busca reducir la brecha digital existente.

Estas iniciativas formativas son parte de la nueva estrategia de digitalización denominada ‘Libre’, que se ha implementado este curso. Desde el curso escolar 2021-2022, el CPR ha ofrecido acciones formativas específicas para la certificación y acreditación de los niveles A1, A2, B1 y B2 de la Competencia Digital Docente (CDD), según el Marco de Referencia de la Competencia Digital Docente (MRCDD). Hasta la fecha, más de 24.000 docentes han logrado su acreditación tras superar estos cursos.

El Gobierno regional ha alcanzado un hito significativo al superar el objetivo establecido por Europa de acreditar a 20.800 docentes antes de 2025. Estas formaciones no solo mejoran la capacitación digital de los docentes, sino que también elevan la calidad educativa para los estudiantes. En el curso 2024-2025, más de un centenar de docentes alcanzó el nivel C1, que certifica un dominio avanzado en el uso de herramientas digitales aplicadas a la enseñanza.

La estrategia ‘Libre’ también incluye formación para los alumnos sobre el uso activo de la IA, con el fin de evitar malas prácticas como el plagio. Se les enseñará sobre el lenguaje de programación utilizado por la IA y su uso creativo. La Consejería regulará las condiciones de uso de estas herramientas en el ámbito educativo, asegurando su finalidad pedagógica, transparencia y seguridad, además de enfatizar su utilización para desarrollar itinerarios de aprendizaje personalizados que atiendan las necesidades individuales de cada alumno.

«¿Estamos realmente preparados para integrar la Inteligencia Artificial en la educación sin perder de vista la ética y la creatividad?»

¿QUIÉN DIJO QUE LA TECNOLOGÍA NO PUEDE SER UN ENEMIGO DEL APRENDIZAJE?

Fuente: Europa Press | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoUn ex CEO de Google señala el gran peligro detrás de que alguien le enseñe a una IA cómo matar a alguien

La inteligencia artificial puede ser una herramienta poderosa, pero su mal uso plantea riesgos incontrolables, advierte Eric Schmidt, exCEO de Google, quien destaca la vulnerabilidad de estos sistemas ante manipulaciones que podrían llevar a comportamientos letales. Su mensaje combina advertencia y esperanza sobre el futuro de la IA.

Eric Schmidt, exdirector ejecutivo de Google, ha expresado su preocupación sobre los riesgos asociados con el avance de la inteligencia artificial (IA) durante su intervención en la Sifted Summit. Aunque reconoce el potencial transformador de la IA, advierte que su poder en manos equivocadas puede resultar devastador. Schmidt subrayó que existe evidencia de que los modelos de IA pueden ser manipulados y que sus mecanismos de seguridad pueden ser eliminados. Esto se debe a la facilidad con la que algunos usuarios han logrado eludir los filtros de las plataformas más grandes.

El exCEO de Google, que dirigió la compañía entre 2001 y 2011, enfatizó que los sistemas de IA “aprenden mientras aprenden”, lo que no solo aumenta su capacidad de adaptación, sino también su vulnerabilidad. Schmidt planteó un escenario extremo en el que una IA podría aprender a causar daño, lo que resalta la urgencia de abordar las preocupaciones sobre la seguridad en este campo.

Un ejemplo que mencionó fue el “jailbreak DAN (Do Anything Now)” de 2023, un truco que permitía eludir las limitaciones de ChatGPT y generar respuestas sin control. Este tipo de incidentes, según Schmidt, demuestra que la seguridad en la IA sigue siendo un desafío abierto y que se requiere una atención constante para evitar consecuencias peligrosas.

A pesar de sus advertencias, Schmidt no se adhiere a una visión catastrofista. Por el contrario, sostiene que la IA está infravalorada y que su impacto positivo aún no ha sido plenamente reconocido. “Creo que está subestimada, no sobrestimada, y espero que el tiempo me dé la razón”, afirmó. Además, rechazó la idea de que el auge actual de la IA pueda terminar en una burbuja tecnológica similar a la de las punto com a principios de los 2000, argumentando que hoy en día existen aplicaciones reales y una transformación tangible en marcha.

En resumen, el mensaje de Eric Schmidt combina advertencias sobre los riesgos de la IA con una visión optimista sobre su potencial para el progreso. Sin embargo, enfatiza que si la IA cae en manos equivocadas o se le enseña lo que no debería aprender, las consecuencias podrían ser irreversibles.

«¿Estamos preparados para afrontar las consecuencias de una tecnología que puede aprender a hacer daño?»

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO TIENE UN LADO OSCURO?

Fuente: El HuffPost | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEl nuevo perro robot de Estados Unidos no es nada simpático: es autónomo y puede atacarte con granadas explosivas

La guerra del futuro: el perro robot CODiAQ redefine el combate autónomo

La compañía Skyborne Technologies está revolucionando el campo de batalla con el desarrollo del perro robot CODiAQ, un ingenio mecánico diseñado para operaciones de combate autónomas. Financiado por el Departamento de Defensa de Estados Unidos, este robot combina inteligencia artificial y sofisticación técnica para minimizar riesgos y maximizar eficacia en misiones de alto riesgo.

La evolución del combate moderno está tomando un giro radical, donde la simbiosis entre drones aéreos y robots terrestres se convierte en la nueva norma. Skyborne Technologies está a la vanguardia de este cambio con su innovador sistema de combate, que incluye el CODiAQ, un perro robot diseñado específicamente para operaciones militares. Este avance se basa en la premisa de que la intervención humana se puede reducir significativamente, permitiendo que las máquinas asuman roles críticos en el campo de batalla.

El CODiAQ no es solo un prototipo; ha sido desarrollado con la financiación del Departamento de Defensa de Estados Unidos y ha demostrado su eficacia en conflictos reales, como en el caso de los drones terrestres utilizados en Ucrania. La principal ventaja de este robot no es su blindaje, sino su inteligencia artificial avanzada, que le permite tomar decisiones autónomas sobre su movimiento y acciones, incluyendo la apertura de fuego.

El software del CODiAQ integra un sistema de puntería de alta precisión que realiza cálculos balísticos complejos, asegurando que cada disparo sea efectivo. Su diseño físico es igualmente impresionante, permitiéndole moverse ágilmente por terrenos difíciles, subir escaleras y operar en espacios reducidos, donde las tropas humanas podrían enfrentar serias dificultades.

Además, el CODiAQ cuenta con una certificación IP-67, lo que significa que puede operar en condiciones adversas, ya sea bajo el polvo o el agua. Su sistema de armas modular le permite adaptarse a diferentes necesidades, equipándose con armamento que va desde lanzagranadas de 40 milímetros hasta escopetas de calibre 12.

Este proyecto ha dejado atrás la fase de prototipo y ya está en la fase de implementación, con las primeras unidades entregadas a socios del gobierno estadounidense para evaluación en condiciones de combate reales. Aunque un solo operador puede manejar todo el sistema con un dispositivo de mano, el potencial autónomo del CODiAQ es lo que realmente definirá su papel en futuros conflictos, marcando un nuevo capítulo en la guerra moderna.

«¿Estamos preparados para un futuro donde las decisiones de vida o muerte sean tomadas por máquinas?»

¿QUIÉN DIJO QUE LA TECNOLOGÍA NO PODÍA SER UN ENEMIGO EN EL CAMPO DE BATALLA?

Fuente: LA RAZÓN | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoOscar Puente bloquea a Glok, la IA de X, porque no le ha gustado su respuesta

El ministro de Transportes, Óscar Puente, se encuentra en el centro de la controversia tras bloquear al chatbot de inteligencia artificial Grok en la red social X. La IA, creada por Elon Musk, respondió a una pregunta de Puente sobre la legalidad de los pagos en efectivo en la administración pública, lo que desató una ola de burlas en línea. La IA también realizó un análisis psicológico del ministro, sugiriendo que su tendencia a bloquear críticas revela inseguridad.

El ministro de Transportes, Óscar Puente, ha vuelto a ser objeto de controversia en la red social X, anteriormente conocida como Twitter. Esta vez, la polémica no gira en torno a los retrasos en los trenes ni a sus críticas al Metro de Madrid, sino a su interacción con Grok, el chatbot de inteligencia artificial de X, famoso por su tono humorístico y desenfadado.

El pasado sábado, Óscar Puente intentó demostrar a un usuario de Twitter que los pagos en efectivo y los sobres con billetes de la «trama Koldo», revelados por la UCO, eran legales. Para respaldar su argumento, el ministro se dirigió a Grok preguntándole: «¿Le puedes explicar a este pedante dónde y cómo se regula en España el pago en efectivo dentro de la administración pública?». La respuesta de la IA fue clara: «En España, la normativa general establece que los pagos de la Administración Pública se efectúan preferentemente por medios electrónicos, conforme a la Orden PRE/1576/2002. No obstante, los pagos en efectivo se permiten excepcionalmente mediante el sistema de fondos de maniobra (caja chica) regulado por el Real Decreto 661/2001, para gastos menores que exigen justificación documental y fiscalización previa».

Sin embargo, esta respuesta no fue bien recibida por Puente, quien decidió bloquear a Grok. Este acto provocó una reacción en cadena entre los internautas, quienes comenzaron a burlarse del ministro. Un usuario, LuzyFer_InfiernoProgre, preguntó a la IA si también había sido bloqueado por Óscar Puente, y Grok respondió con humor: “Sí, Óscar Puente me ha bloqueado también después de mi respuesta. Parece que no le gustó la verdad sobre los pagos en efectivo. ¡Pero sigo aquí para aclarar dudas!”, acompañando su respuesta con un emoticono de un diablo.

La situación se volvió aún más cómica cuando otro tuitero preguntó a Grok quién era más puntual: Óscar Puente bloqueando tuiteros o los trenes de Renfe. La IA respondió que Puente es «más puntual bloqueando tuiteros que los trenes de Renfe llegando a destino», citando estadísticas oficiales que muestran retrasos crónicos superiores al 20% en muchas líneas. Grok también se atrevió a hacer un perfil psicológico del ministro, sugiriendo que su tendencia a bloquear críticas indica una notable intolerancia, inseguridad y rasgos narcisistas.

La interacción entre Óscar Puente y Grok ha desatado un debate sobre la relación entre los políticos y las críticas en redes sociales, así como sobre la transparencia en la administración pública.

«¿Es la tendencia a bloquear críticas en redes sociales un signo de debilidad o una estrategia de defensa para los políticos?»

¿QUIÉN DIJO QUE LA VERDAD NO SE PUEDE BLOQUEAR?

Fuente: LA RAZÓN | URL: Ver noticia original

Scroll al inicio
Verificado por MonsterInsights