20 de octubre de 2025

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoUn ex CEO de Google señala el gran peligro detrás de que alguien le enseñe a una IA cómo matar a alguien

La inteligencia artificial puede ser una herramienta poderosa, pero su mal uso plantea riesgos incontrolables, advierte Eric Schmidt, exCEO de Google, quien destaca la vulnerabilidad de estos sistemas ante manipulaciones que podrían llevar a comportamientos letales. Su mensaje combina advertencia y esperanza sobre el futuro de la IA.

Eric Schmidt, exdirector ejecutivo de Google, ha expresado su preocupación sobre los riesgos asociados con el avance de la inteligencia artificial (IA) durante su intervención en la Sifted Summit. Aunque reconoce el potencial transformador de la IA, advierte que su poder en manos equivocadas puede resultar devastador. Schmidt subrayó que existe evidencia de que los modelos de IA pueden ser manipulados y que sus mecanismos de seguridad pueden ser eliminados. Esto se debe a la facilidad con la que algunos usuarios han logrado eludir los filtros de las plataformas más grandes.

El exCEO de Google, que dirigió la compañía entre 2001 y 2011, enfatizó que los sistemas de IA “aprenden mientras aprenden”, lo que no solo aumenta su capacidad de adaptación, sino también su vulnerabilidad. Schmidt planteó un escenario extremo en el que una IA podría aprender a causar daño, lo que resalta la urgencia de abordar las preocupaciones sobre la seguridad en este campo.

Un ejemplo que mencionó fue el “jailbreak DAN (Do Anything Now)” de 2023, un truco que permitía eludir las limitaciones de ChatGPT y generar respuestas sin control. Este tipo de incidentes, según Schmidt, demuestra que la seguridad en la IA sigue siendo un desafío abierto y que se requiere una atención constante para evitar consecuencias peligrosas.

A pesar de sus advertencias, Schmidt no se adhiere a una visión catastrofista. Por el contrario, sostiene que la IA está infravalorada y que su impacto positivo aún no ha sido plenamente reconocido. “Creo que está subestimada, no sobrestimada, y espero que el tiempo me dé la razón”, afirmó. Además, rechazó la idea de que el auge actual de la IA pueda terminar en una burbuja tecnológica similar a la de las punto com a principios de los 2000, argumentando que hoy en día existen aplicaciones reales y una transformación tangible en marcha.

En resumen, el mensaje de Eric Schmidt combina advertencias sobre los riesgos de la IA con una visión optimista sobre su potencial para el progreso. Sin embargo, enfatiza que si la IA cae en manos equivocadas o se le enseña lo que no debería aprender, las consecuencias podrían ser irreversibles.

«¿Estamos preparados para afrontar las consecuencias de una tecnología que puede aprender a hacer daño?»

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO TIENE UN LADO OSCURO?

Fuente: El HuffPost | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEl nuevo perro robot de Estados Unidos no es nada simpático: es autónomo y puede atacarte con granadas explosivas

La guerra del futuro: el perro robot CODiAQ redefine el combate autónomo

La compañía Skyborne Technologies está revolucionando el campo de batalla con el desarrollo del perro robot CODiAQ, un ingenio mecánico diseñado para operaciones de combate autónomas. Financiado por el Departamento de Defensa de Estados Unidos, este robot combina inteligencia artificial y sofisticación técnica para minimizar riesgos y maximizar eficacia en misiones de alto riesgo.

La evolución del combate moderno está tomando un giro radical, donde la simbiosis entre drones aéreos y robots terrestres se convierte en la nueva norma. Skyborne Technologies está a la vanguardia de este cambio con su innovador sistema de combate, que incluye el CODiAQ, un perro robot diseñado específicamente para operaciones militares. Este avance se basa en la premisa de que la intervención humana se puede reducir significativamente, permitiendo que las máquinas asuman roles críticos en el campo de batalla.

El CODiAQ no es solo un prototipo; ha sido desarrollado con la financiación del Departamento de Defensa de Estados Unidos y ha demostrado su eficacia en conflictos reales, como en el caso de los drones terrestres utilizados en Ucrania. La principal ventaja de este robot no es su blindaje, sino su inteligencia artificial avanzada, que le permite tomar decisiones autónomas sobre su movimiento y acciones, incluyendo la apertura de fuego.

El software del CODiAQ integra un sistema de puntería de alta precisión que realiza cálculos balísticos complejos, asegurando que cada disparo sea efectivo. Su diseño físico es igualmente impresionante, permitiéndole moverse ágilmente por terrenos difíciles, subir escaleras y operar en espacios reducidos, donde las tropas humanas podrían enfrentar serias dificultades.

Además, el CODiAQ cuenta con una certificación IP-67, lo que significa que puede operar en condiciones adversas, ya sea bajo el polvo o el agua. Su sistema de armas modular le permite adaptarse a diferentes necesidades, equipándose con armamento que va desde lanzagranadas de 40 milímetros hasta escopetas de calibre 12.

Este proyecto ha dejado atrás la fase de prototipo y ya está en la fase de implementación, con las primeras unidades entregadas a socios del gobierno estadounidense para evaluación en condiciones de combate reales. Aunque un solo operador puede manejar todo el sistema con un dispositivo de mano, el potencial autónomo del CODiAQ es lo que realmente definirá su papel en futuros conflictos, marcando un nuevo capítulo en la guerra moderna.

«¿Estamos preparados para un futuro donde las decisiones de vida o muerte sean tomadas por máquinas?»

¿QUIÉN DIJO QUE LA TECNOLOGÍA NO PODÍA SER UN ENEMIGO EN EL CAMPO DE BATALLA?

Fuente: LA RAZÓN | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoOscar Puente bloquea a Glok, la IA de X, porque no le ha gustado su respuesta

El ministro de Transportes, Óscar Puente, se encuentra en el centro de la controversia tras bloquear al chatbot de inteligencia artificial Grok en la red social X. La IA, creada por Elon Musk, respondió a una pregunta de Puente sobre la legalidad de los pagos en efectivo en la administración pública, lo que desató una ola de burlas en línea. La IA también realizó un análisis psicológico del ministro, sugiriendo que su tendencia a bloquear críticas revela inseguridad.

El ministro de Transportes, Óscar Puente, ha vuelto a ser objeto de controversia en la red social X, anteriormente conocida como Twitter. Esta vez, la polémica no gira en torno a los retrasos en los trenes ni a sus críticas al Metro de Madrid, sino a su interacción con Grok, el chatbot de inteligencia artificial de X, famoso por su tono humorístico y desenfadado.

El pasado sábado, Óscar Puente intentó demostrar a un usuario de Twitter que los pagos en efectivo y los sobres con billetes de la «trama Koldo», revelados por la UCO, eran legales. Para respaldar su argumento, el ministro se dirigió a Grok preguntándole: «¿Le puedes explicar a este pedante dónde y cómo se regula en España el pago en efectivo dentro de la administración pública?». La respuesta de la IA fue clara: «En España, la normativa general establece que los pagos de la Administración Pública se efectúan preferentemente por medios electrónicos, conforme a la Orden PRE/1576/2002. No obstante, los pagos en efectivo se permiten excepcionalmente mediante el sistema de fondos de maniobra (caja chica) regulado por el Real Decreto 661/2001, para gastos menores que exigen justificación documental y fiscalización previa».

Sin embargo, esta respuesta no fue bien recibida por Puente, quien decidió bloquear a Grok. Este acto provocó una reacción en cadena entre los internautas, quienes comenzaron a burlarse del ministro. Un usuario, LuzyFer_InfiernoProgre, preguntó a la IA si también había sido bloqueado por Óscar Puente, y Grok respondió con humor: “Sí, Óscar Puente me ha bloqueado también después de mi respuesta. Parece que no le gustó la verdad sobre los pagos en efectivo. ¡Pero sigo aquí para aclarar dudas!”, acompañando su respuesta con un emoticono de un diablo.

La situación se volvió aún más cómica cuando otro tuitero preguntó a Grok quién era más puntual: Óscar Puente bloqueando tuiteros o los trenes de Renfe. La IA respondió que Puente es «más puntual bloqueando tuiteros que los trenes de Renfe llegando a destino», citando estadísticas oficiales que muestran retrasos crónicos superiores al 20% en muchas líneas. Grok también se atrevió a hacer un perfil psicológico del ministro, sugiriendo que su tendencia a bloquear críticas indica una notable intolerancia, inseguridad y rasgos narcisistas.

La interacción entre Óscar Puente y Grok ha desatado un debate sobre la relación entre los políticos y las críticas en redes sociales, así como sobre la transparencia en la administración pública.

«¿Es la tendencia a bloquear críticas en redes sociales un signo de debilidad o una estrategia de defensa para los políticos?»

¿QUIÉN DIJO QUE LA VERDAD NO SE PUEDE BLOQUEAR?

Fuente: LA RAZÓN | URL: Ver noticia original

Scroll al inicio
Verificado por MonsterInsights