19 de octubre de 2025

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEl Centro Nacional de Supercomputación elimina tecnología de Huawei por poner en riesgo «los intereses de España» | Vozpópuli

El Barcelona Supercomputing Center elimina tecnología Huawei para garantizar la seguridad de datos sensibles en España

El Barcelona Supercomputing Center (BSC-CNS) ha iniciado un proceso de contratación para adaptar sus instalaciones y eliminar tecnología de Huawei, buscando crear un entorno seguro para nuevos equipos de supercomputación. Esta decisión responde a preocupaciones sobre la divulgación de datos que podrían perjudicar los intereses de España.

El Barcelona Supercomputing Center – Centro Nacional de Supercomputación, que depende del Ministerio de Universidades y de la Generalitat de Cataluña, ha lanzado un proceso de contratación para adaptar parte de sus instalaciones. Este proyecto tiene como objetivo acoger nuevos equipos de supercomputación en un entorno seguro y de acceso restringido, lo que incluye la eliminación de tecnología de Huawei presente en su sede. La modificación busca garantizar un nivel de seguridad que impida la difusión de datos cuya divulgación pueda perjudicar los intereses de España.

Las obras se centrarán en el sótano 1 del edificio Torre Girona, donde se adecuará el espacio del actual centro de procesos de datos. Se creará un entorno cerrado que garantice un nivel de seguridad de “difusión limitada” o equivalente, reservado para información cuya divulgación no autorizada podría perjudicar los intereses de España, aunque no comprometa directamente la seguridad nacional. Este entorno será responsabilidad exclusiva del BSC-CNS y solo podrá operar dentro de la Zona de Acceso Protegido (ZAP).

El proyecto abarca no solo la ejecución de las obras, sino también la planificación, la presentación de documentos técnicos y el cumplimiento de criterios específicos definidos en el pliego técnico. A lo largo del contrato, el adjudicatario deberá seguir las indicaciones del BSC-CNS y considerar toda la documentación adicional que este proporcione.

Entre los trabajos incluidos se destaca el desmontaje de 13 racks informáticos, que forman parte del sistema de cómputo actual. Esto incluye 9 racks del sistema Nord 3, 1 rack SL3, 1 de la marca Huawei y 2 racks AMD. Las tareas implican desconectar los sistemas eléctricos, hidráulicos y de datos, retirar las conexiones de fibra óptica y Ethernet, y embalar cuidadosamente los equipos. Todo el material será transportado desde Barcelona a un almacén ubicado en Dazango de Arriba (Madrid), donde permanecerá almacenado durante tres meses.

La polémica surgió en julio, cuando España renovó un contrato con Huawei por valor de 12,3 millones de euros para que sus servidores OceanStor 6800V gestionen el almacenamiento de las comunicaciones interceptadas por SITEL. Este sistema, utilizado por las fuerzas de seguridad bajo la jurisdicción del Ministerio del Interior, permite realizar escuchas telefónicas autorizadas judicialmente. Tras hacerse pública esta renovación, Estados Unidos se posicionó en contra, con los republicanos Tom Cotton y Rick Crawford enviando una carta a la directora de la CIA, Tulsy Gabbard, pidiendo revisar los acuerdos bilaterales de intercambio de información de inteligencia con España.

Bruselas también ha mostrado reticencias hacia Huawei. En 2018, la Unión Europea excluyó a fabricantes chinos de concursos públicos y del despliegue de redes de telecomunicaciones, citando preocupaciones sobre el espionaje. Desde entonces, al menos 11 países del bloque han prohibido contratar a Huawei, entre ellos Alemania y Suecia. En marzo, la Comisión y el Parlamento Europeo suspendieron el acceso a las instituciones de los lobistas de Huawei tras acusaciones de soborno.

El Gobierno de Xi Jinping ha elaborado legislación que obligaría a Huawei a compartir información sensible. La empresa ha defendido la legalidad y seguridad de sus productos, insistiendo en que todos sus equipos cumplen con las leyes locales y que no tienen acceso a los datos gestionados por sus clientes.

«¿Es la eliminación de la tecnología de Huawei una solución efectiva o solo una respuesta simbólica a las presiones internacionales?»

¿QUIÉN DICE QUE LA SEGURIDAD NACIONAL NO ES UN JUEGO DE PODER?

Fuente: www.vozpopuli.com | Ver noticia original

Fuente: www.vozpopuli.com | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoUna red enredada de acuerdos aviva los temores de burbuja de IA en Silicon Valley

La burbuja de la inteligencia artificial: ¿una realidad inminente?

La creciente preocupación sobre una posible burbuja en el sector de la inteligencia artificial ha llevado a expertos y líderes de la industria a cuestionar la sostenibilidad de las valoraciones actuales. Sam Altman, CEO de OpenAI, reconoce que hay signos de sobrevaloración, mientras que figuras como Jerry Kaplan advierten sobre las consecuencias económicas de un posible estallido. La inversión masiva en tecnología AI podría estar en riesgo.

La discusión sobre la posible burbuja en el sector de la inteligencia artificial ha cobrado fuerza en Silicon Valley, donde el CEO de OpenAI, Sam Altman, ha admitido que hay elementos en el mercado que parecen «burbujas». Durante el evento DevDay de OpenAI, Altman se sentó con sus principales colaboradores y abordó las preocupaciones sobre la sobrevaloración de las empresas de tecnología AI. A pesar de su optimismo sobre el crecimiento de OpenAI, reconoció que algunos inversores podrían tomar decisiones erróneas y que algunas startups podrían recibir financiación desmesurada.

Las advertencias sobre una burbuja de inteligencia artificial han llegado de diversas fuentes, incluyendo el Banco de Inglaterra, el Fondo Monetario Internacional y el CEO de JP Morgan, Jamie Dimon, quien ha expresado que el nivel de incertidumbre debería ser mayor en la mente de los inversores. En un panel en el Computer History Museum, el emprendedor de AI Jerry Kaplan compartió su experiencia de haber vivido cuatro burbujas y expresó su preocupación por la magnitud del dinero involucrado en comparación con el boom de las puntocom, sugiriendo que un estallido podría tener repercusiones en toda la economía.

Por otro lado, la profesora Anat Admati de la Stanford Graduate School of Business ha señalado que, aunque hay intentos de modelar burbujas, es difícil predecir cuándo ocurren y no se puede confirmar que se está en una hasta que ya ha estallado. Los datos son preocupantes, ya que las empresas relacionadas con AI han representado el 80% de las ganancias en el mercado de valores estadounidense este año, y se estima que el gasto global en AI alcanzará los 1.5 billones de dólares antes de que termine 2025.

OpenAI, que popularizó la inteligencia artificial con ChatGPT en 2022, está en el centro de un entramado de acuerdos que están siendo objeto de escrutinio. Por ejemplo, el mes pasado, OpenAI firmó un acuerdo de 100 mil millones de dólares con Nvidia, la empresa de tecnología más valiosa del mundo. Además, OpenAI anunció planes para adquirir miles de millones de dólares en equipos de desarrollo de AI de AMD, lo que podría convertirla en uno de sus mayores accionistas.

A medida que estos acuerdos de financiación se vuelven más comunes, algunos expertos advierten que podrían nublar las percepciones sobre la demanda de AI. Algunos críticos han calificado estos acuerdos como «financiación circular», donde una empresa invierte en sus propios clientes para mantener la demanda. Altman ha reconocido que estos préstamos de inversión son sin precedentes, pero también ha defendido el crecimiento rápido de los ingresos de OpenAI, que, sin embargo, nunca ha obtenido beneficios.

Kaplan ha señalado signos de que el sector de AI podría estar en problemas, como la tendencia de las empresas a anunciar iniciativas que aún no tienen el capital necesario. La reciente subida de acciones de AMD podría indicar que los inversores buscan participar en la «máquina de riqueza» de ChatGPT. Además, Kaplan ha advertido sobre la creación de un desastre ecológico debido a la construcción de enormes centros de datos en lugares remotos.

A pesar de las preocupaciones sobre una posible burbuja, algunos en Silicon Valley creen que las inversiones actuales no serán en vano. Jeff Boudier, de Hugging Face, ha comentado que, aunque puede haber riesgos financieros, la sobreinversión en infraestructura para AI podría permitir el desarrollo de nuevos productos y experiencias.

La pregunta que queda en el aire es si el dinero necesario para financiar las ambiciones de las principales empresas del sector se está agotando. Rihard Jarc, fundador de UncoverAlpha, ha planteado que Nvidia podría ser el último gran prestamista o inversor, preguntándose quién más tiene la capacidad de invertir 100 mil millones de dólares en otra empresa.

«¿Estamos realmente preparados para las consecuencias de una burbuja que podría arrastrar a toda la economía?»

¿NO ES IRÓNICO QUE ESTEMOS CREANDO UNA NUEVA BURBUJA MIENTRAS INTENTAMOS DESARROLLAR UNA TECNOLOGÍA QUE PROMETE TRANSFORMAR NUESTRA SOCIEDAD?

Fuente: www.bbc.com | Ver noticia original

Fuente: www.bbc.com | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoFilántropos invertirán €427 millones para frenar la influencia de los gigantes tecnológicos en la nueva IA | Euronews

La inteligencia artificial debe ser diseñada para el bienestar humano, no para el beneficio de unos pocos.

Diez fundaciones filantróficas han lanzado la coalición Humanity AI, comprometiendo 500 millones de dólares en los próximos cinco años para priorizar los intereses humanos en el desarrollo de la inteligencia artificial. La iniciativa busca contrarrestar el control de las grandes empresas tecnológicas y asegurar que la IA beneficie a la sociedad en su conjunto.

La coalición Humanity AI fue presentada el martes y está compuesta por diez fundaciones que buscan cambiar el rumbo de la inteligencia artificial (IA) en un contexto donde su desarrollo está dominado por grandes empresas tecnológicas. Con un compromiso de 500 millones de dólares (aproximadamente 427 millones de euros) en un plazo de cinco años, el objetivo es colocar los intereses humanos en el centro de la rápida integración de la IA en la vida cotidiana. Nabiha Syed, directora ejecutiva de la Mozilla Foundation, enfatizó que «el futuro pertenece a quienes lo crean activamente», sugiriendo que la evolución de la IA no debería estar en manos de unos pocos líderes de Silicon Valley, sino ser un esfuerzo colectivo.

La IA ha sido adoptada en diversas áreas como la ingeniería de software y la medicina, y se ha demostrado útil para ayudar a estudiantes con discapacidades visuales, del habla, del lenguaje y auditivas. Sin embargo, también hay preocupaciones sobre su impacto negativo, como el uso de chatbots de IA por parte de niños en busca de compañía, la propagación de desinformación a través de vídeos falsos generados por IA y el impacto en el empleo de jóvenes trabajadores.

Michele L. Jawando, presidenta de la Omidyar Network, destacó que las grandes empresas tecnológicas no están invirtiendo en aplicaciones que realmente beneficien a la humanidad, sino en productos que buscan maximizar beneficios. Un ejemplo de esto es la reciente entrada de OpenAI en el mercado online, donde se presentó a ChatGPT como un comerciante virtual.

La coalición también reconoce la necesidad de colaboración entre el sector privado y los gobiernos para amplificar la voz de la sociedad civil, especialmente en un contexto donde las regulaciones se están flexibilizando para acelerar el desarrollo de la IA. Jawando subrayó que el objetivo de Humanity AI es definir qué significa «florecer» en un mundo donde la IA es omnipresente, argumentando que la eficiencia no es suficiente para una vida plena y satisfactoria.

La coalición, liderada por la MacArthur Foundation y la Omidyar Network, busca recuperar la agencia en el desarrollo tecnológico, apoyando iniciativas que prioricen a las personas y al planeta. Los miembros de esta alianza deben realizar donaciones en al menos una de las cinco áreas prioritarias: avanzar en la democracia, fortalecer la educación, proteger a los artistas, mejorar el trabajo o defender la seguridad personal. Entre las organizaciones que forman parte de esta coalición se encuentran la Mellon Foundation, la Ford Foundation, la Lumina Foundation, y la Kapor Foundation.

«¿Realmente estamos preparados para un futuro donde la inteligencia artificial se desarrolle sin considerar el bienestar humano?»

Fuente: www.euronews.com | Ver noticia original

Fuente: www.euronews.com | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoSora, la aplicación de vídeo de OpenAI que hace realidad la distopia

El rechazo a la OPA del BBVA demuestra, sobre todo, que Cataluña es más sensata de lo que ha sido nunca Josep Oliu

El 30 de septiembre, OpenAI lanzó Sora, una aplicación de vídeos generados por inteligencia artificial, que rápidamente se convirtió en un éxito en EE.UU. y Canadá, superando un millón de descargas. Sin embargo, ha generado controversia por su uso de personajes con copyright y su potencial para la desinformación.

El 30 de septiembre de 2025, OpenAI presentó su nueva aplicación Sora, diseñada para generar vídeos mediante inteligencia artificial. Aunque inicialmente solo está disponible en EE.UU. y Canadá, ha tenido un impacto inmediato, logrando más de un millón de descargas a pesar de su acceso restringido por invitación. Este éxito supera incluso al lanzamiento de ChatGPT, otro producto destacado de la compañía. Sin embargo, la aplicación ha suscitado una serie de controversias, especialmente en relación con el uso de personajes de Pokémon y Nintendo sin las licencias correspondientes, lo que infringe las leyes de copyright.

Sora utiliza un modelo de audio y vídeo que fue presentado a finales de 2024, pero no está disponible en la Unión Europea debido a regulaciones digitales que buscan proteger a los consumidores. La compañía está construyendo nuevos centros de datos para aumentar su capacidad de procesamiento, que es esencial para la creación de vídeos. La aplicación permite a los usuarios generar vídeos de hasta quince segundos a partir de una solicitud escrita, y uno de sus aspectos más llamativos es la función «Cameo», que escanea la cara del usuario para crear una versión sintética que puede aparecer en los vídeos generados.

A pesar de las medidas de seguridad implementadas, como la inclusión de marcas de agua en los vídeos generados, se han reportado aplicaciones de terceros que permiten eliminar estas marcas, lo que plantea serias preocupaciones sobre la manipulación y la desinformación. La capacidad de crear vídeos que imitan a personajes históricos o celebridades, como Martin Luther King o John Lennon, sin su consentimiento, abre la puerta a la creación de contenido engañoso que puede ser difícil de distinguir del material original.

La polémica también se extiende a la política de copyright de OpenAI, que se ha enfrentado a críticas por utilizar materiales protegidos sin permiso previo. Sam Altman, el CEO de OpenAI, ha defendido la práctica argumentando que muchos titulares de derechos están emocionados por la nueva interacción con los fans, aunque también han surgido preocupaciones sobre el impacto que esto puede tener en la industria audiovisual.

Además de las cuestiones legales, la aplicación plantea riesgos para los jóvenes, quienes podrían verse afectados por la presión estética y la posibilidad de ser objeto de burlas a través de vídeos generados por sus compañeros. La introducción de contenido erótico en ChatGPT también ha generado inquietud sobre la dirección que podría tomar Sora en el futuro.

«¿Estamos realmente preparados para las implicaciones de una tecnología que puede crear realidades alternativas a partir de imágenes y sonidos?»

¿QUIÉN DIJO QUE LA REALIDAD NO SE PUEDE MANIPULAR?

Fuente: www.vilaweb.cat | Ver noticia original

Fuente: www.vilaweb.cat | URL: Ver noticia original

Scroll al inicio
Verificado por MonsterInsights