7 de febrero de 2025

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoBarcelona, sede del primer ordenador cuántico hecho con tecnología totalmente europea

España inaugura su primer ordenador cuántico con tecnología 100% europea

El Barcelona Supercomputing Center acoge el primer ordenador cuántico desarrollado en Europa

España avanza en computación cuántica con un sistema pionero de fabricación europea

España da un paso decisivo en la soberanía tecnológica con su primer ordenador cuántico de fabricación europea.
El Barcelona Supercomputing Center (BSC-CNS) ha inaugurado el primer ordenador cuántico desarrollado íntegramente con tecnología europea. Este avance forma parte de la iniciativa Quantum Spain, que busca reforzar la soberanía digital y la independencia tecnológica del continente. El acto de presentación ha contado con la presencia del president de la Generalitat, Salvador Illa, y los ministros Óscar López y Diana Morant, quienes han destacado la importancia de esta infraestructura para la innovación y el desarrollo científico.

 

El Barcelona Supercomputing Center (BSC-CNS) ha incorporado a sus instalaciones el primer ordenador cuántico construido íntegramente con tecnología europea. Este sistema se integra dentro de la iniciativa Quantum Spain, un programa impulsado por el Gobierno para reforzar la capacidad de cálculo del país y fomentar la soberanía tecnológica en el ámbito de la computación cuántica.

El acto de inauguración ha estado presidido por el president de la Generalitat, Salvador Illa, acompañado por el ministro de Transformación Digital y Función Pública, Óscar López, y la ministra de Ciencia, Innovación y Universidades, Diana Morant. Durante la presentación, se ha enfatizado la relevancia de este hito como un avance estratégico para España y Europa en la carrera cuántica.

El nuevo sistema cuántico, ubicado en la capilla de la Torre Girona, donde también se encuentra el MareNostrum 5, el supercomputador más potente del país, representa un avance significativo para la comunidad científica y el sector tecnológico. Se espera que esta tecnología tenga aplicaciones en diversos campos, desde la optimización de procesos industriales hasta el desarrollo de nuevos materiales y la inteligencia artificial.

La computación cuántica es un área de gran interés a nivel global, con países como Estados Unidos y China invirtiendo fuertemente en su desarrollo. Con este nuevo sistema, España refuerza su posición en el sector, apostando por una infraestructura propia que reducirá la dependencia de tecnologías extranjeras.

«¿Será este ordenador cuántico el punto de partida para que Europa compita en igualdad de condiciones con EE.UU. y China en la revolución cuántica?»

·····················
Este es un resumen comentado, basado en la noticia original de Francesc Bracero publicada en La Vanguardia el 06/02/2025.
Puedes leer el artículo completo aquí:

https://www.lavanguardia.com/vida/20250206/10359654/espana-estrena-bsc-primer-ordenador-cuantico-creado-tecnologia-europea.html
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLenovo se dispara en bolsa tras anunciar productos con modelos de IA de DeepSeek

Lenovo anuncia alianza con DeepSeek para integrar IA en sus productos

La bolsa reacciona positivamente al anuncio de Lenovo sobre IA

Lenovo y DeepSeek unen fuerzas para innovar en inteligencia artificial

Lenovo se asocia con MetaX para lanzar soluciones de IA basadas en DeepSeek, impulsando su valor en el mercado.
La tecnológica china Lenovo, reconocida como el mayor fabricante mundial de ordenadores personales, experimentó hoy un notable incremento en su valor bursátil, con una subida cercana al 9%. Este ascenso se produce tras el anuncio del lanzamiento de una nueva gama de productos que incorporarán los avanzados modelos de inteligencia artificial (IA) desarrollados por DeepSeek. Las acciones de Lenovo en la Bolsa de Hong Kong registraron un aumento del 8,87% hacia las 10:30 hora local (02:30 GMT), acumulando una apreciación de casi el 27% en lo que va de semana.

 

La compañía ha establecido una colaboración con el fabricante local de tarjetas gráficas MetaX para ofrecer «soluciones todo en uno» basadas en los modelos de IA de DeepSeek, incluyendo un «agente inteligente» y un servidor destinado al «adiestramiento e inferencia». Este anuncio ha sido clave en la revalorización de Lenovo en los mercados financieros, confirmando el interés del sector por la adopción de inteligencia artificial en dispositivos de consumo y empresariales.

Tras la irrupción global de DeepSeek, otras destacadas firmas tecnológicas chinas, como Huawei o Tencent, han anunciado la integración de estos modelos en sus plataformas para programadores, combinando servicios de computación en la nube y diversas infraestructuras digitales. La expansión de DeepSeek en el ecosistema tecnológico chino está redefiniendo el panorama de la IA, con más empresas apostando por su adopción en diferentes sectores.

Comentario
El ascenso de Lenovo en bolsa refleja un patrón que hemos visto en otras compañías tecnológicas cuando anuncian integraciones de inteligencia artificial. En este caso, la alianza con DeepSeek es estratégica: al unir hardware con software avanzado, Lenovo se posiciona como un actor clave en la nueva era de la IA generativa.

Más allá del impacto inmediato en los mercados, esta jugada plantea interrogantes sobre la competitividad global en el sector. Mientras empresas chinas como Huawei, Alibaba y Lenovo consolidan su apuesta por modelos locales de IA, en Occidente sigue la incertidumbre regulatoria sobre cómo manejar esta tecnología. La decisión de Lenovo también sugiere que China está acelerando su independencia tecnológica en inteligencia artificial, alejándose de modelos estadounidenses como los de OpenAI.

Es probable que esta tendencia continúe y que otras grandes tecnológicas adopten estrategias similares para mantenerse competitivas. La clave será ver si estos avances en IA pueden realmente traducirse en productos innovadores y no solo en subidas bursátiles pasajeras.

·····················
Este es un resumen comentado, basado en la noticia original de Agencias publicada en La Vanguardia el 07/02/2025.
Puedes leer el artículo completo aquí:

https://www.lavanguardia.com/vida/20250207/10361380/china-lenovo-dispara-bolsa-anunciar-productos-modelos-ia-deepseek-agenciaslv20250207.html
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoGoogle abandona su política de «no hacer daño» en su IA y se abre sus puertas a desarrollar armas militares

Google modifica sus principios éticos de IA, permitiendo su uso en armamento La compañía elimina restricciones para el desarrollo de tecnologías militares basadas en inteligencia artificial Google actualiza su política de IA y abre la puerta al desarrollo de armas autónomas

Google elimina restricciones éticas en IA, abriendo la puerta al desarrollo de armamento militar.

En 2018, Google estableció principios éticos para el desarrollo de inteligencia artificial, comprometiéndose a no utilizar esta tecnología en aplicaciones que pudieran causar daño, incluyendo armamento y vigilancia que violara derechos humanos. Recientemente, la empresa ha eliminado discretamente esta restricción de sus directrices, permitiendo el uso de IA en desarrollos militares. Esta decisión ha generado preocupación entre expertos y empleados, quienes temen que Google participe en la creación de tecnologías que puedan causar daño directo a las personas.

 

En 2018, Google estableció una serie de principios éticos para el desarrollo de su inteligencia artificial, comprometiéndose a no utilizar esta tecnología en aplicaciones que pudieran causar daño, como armamento o sistemas de vigilancia que violaran los derechos humanos. Sin embargo, según informa Bloomberg, la compañía ha eliminado discretamente esta restricción de sus directrices, abriendo la posibilidad de emplear la IA en desarrollos militares.

Esta modificación ha generado inquietud entre expertos y empleados de la empresa. Margaret Mitchell, ex codirectora del equipo de IA ética de Google y actual jefa de ética en Hugging Face, expresó su preocupación al respecto, señalando que «esto significa que Google, probablemente, ahora trabajará en el despliegue de tecnología directa que pueda matar personas».

En los últimos años, Google ha estrechado vínculos con los ejércitos de Estados Unidos e Israel, proporcionando infraestructura en la nube, lo que ha provocado protestas internas por parte de los empleados. La eliminación de esta cláusula ética podría intensificar estas colaboraciones, permitiendo a la compañía participar en proyectos que antes estaban fuera de sus límites autoimpuestos.

Esta decisión se enmarca en un contexto más amplio donde otras empresas tecnológicas, como OpenAI y Anthropic, también están mostrando interés en vender sus desarrollos de IA al ejército de Estados Unidos. Aunque actualmente la inteligencia artificial se utiliza principalmente para acelerar procesos de planificación y estrategia, existe la preocupación de que, en un futuro cercano, pueda emplearse en la creación de armas autónomas capaces de tomar decisiones letales sin intervención humana.

La actualización de las políticas de Google ha suscitado un debate sobre las implicaciones éticas de utilizar la inteligencia artificial en contextos militares. Mientras algunos argumentan que la colaboración entre empresas tecnológicas y el sector de defensa es inevitable para mantener la competitividad y la seguridad nacional, otros advierten sobre los riesgos de desarrollar tecnologías que puedan causar daño directo a las personas y la necesidad de establecer límites claros en su aplicación.

¿Está Google sacrificando sus principios éticos en pos de la competitividad en el sector de la inteligencia artificial militar, y cuáles podrían ser las consecuencias a largo plazo de esta decisión para la sociedad y la seguridad global?

····················· Este es un resumen comentado, basado en la noticia original de Jesús Quesada publicada en Urban Tecno el 06/02/2025. Puedes leer el artículo completo aquí: https://www.mundodeportivo.com/urbantecno/tecnologia/google-abandona-su-politica-de-no-hacer-dano-en-su-ia-y-se-abre-sus-puertas-a-desarrollar-armas-militares ····················· . . . .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEE UU reconoce que los centros de datos son perjudiciales para la salud

Estados Unidos admite el impacto negativo de los centros de datos en la salud pública

La Casa Blanca alerta sobre los riesgos sanitarios asociados a los centros de datos

Nueva normativa en EE UU para mitigar los efectos nocivos de los centros de datos en la población

**La construcción desmedida de centros de datos en EE UU pone en riesgo la salud pública debido a la contaminación que generan.** El auge de la inteligencia artificial ha impulsado la proliferación de centros de datos en Estados Unidos, esenciales para su funcionamiento. Sin embargo, su elevado consumo de energía y agua para refrigeración contribuye a la emisión de gases tóxicos, afectando la calidad del aire y aumentando el riesgo de enfermedades como el cáncer. Una reciente orden ejecutiva firmada por el expresidente **Joe Biden** prohíbe la construcción de estas infraestructuras en áreas con altos índices de contaminación y riesgo de cáncer, reconociendo así su impacto negativo en la salud pública. Esta medida busca mitigar los efectos adversos asociados a estas instalaciones.

El crecimiento exponencial de la inteligencia artificial en los últimos años ha llevado a una expansión masiva de centros de datos en Estados Unidos. Estas instalaciones, fundamentales para el procesamiento y almacenamiento de datos, demandan cantidades significativas de energía y agua para mantener sus sistemas operativos y de refrigeración. Este consumo intensivo ha generado preocupaciones ambientales y de salud pública debido a las emisiones contaminantes resultantes de la generación de energía necesaria para su funcionamiento.

Reconociendo estos riesgos, la Casa Blanca, bajo la administración del expresidente Joe Biden, emitió la Orden Ejecutiva 14141 el 14 de enero de 2025, titulada «Avanzando el liderazgo de EE UU en la infraestructura de la IA». Esta directiva establece criterios específicos para la ubicación de nuevos centros de datos, enfatizando la necesidad de situarlos en áreas que cumplan con los Estándares Nacionales de Calidad del Aire Ambiental y donde el riesgo de cáncer relacionado con la contaminación sea igual o inferior al promedio nacional, según la herramienta AirToxScreen 2020 de la Agencia de Protección Ambiental (EPA).

Investigaciones lideradas por el profesor Shaolei Ren, de la Universidad de California en Riverside, han evidenciado que los gases tóxicos emitidos durante la generación de electricidad para estos centros, como el óxido nítrico y las partículas PM2,5, deterioran la calidad del aire y elevan la incidencia de enfermedades respiratorias y cardiovasculares. Estas emisiones provienen tanto de las plantas de energía que abastecen a los centros de datos como de los generadores de respaldo que emplean combustibles fósiles.

La Orden Ejecutiva 14141 no solo reconoce el impacto negativo de los centros de datos en la salud pública, sino que también prohíbe su construcción en áreas con altos niveles de contaminación y riesgo elevado de cáncer. Esta medida busca mitigar los efectos adversos asociados a estas instalaciones y promover prácticas más sostenibles en la expansión de la infraestructura tecnológica del país.

«¿Cómo equilibrará Estados Unidos el crecimiento de la infraestructura tecnológica con la necesidad de proteger la salud pública y el medio ambiente?»

····················· Este es un resumen comentado, basado en la noticia original de Manuel G. Pascual publicada en EL PAÍS el 7 de febrero de 2025. Puedes leer el artículo completo aquí: https://elpais.com/tecnologia/2025-02-07/ee-uu-reconoce-que-los-centros-de-datos-son-perjudiciales-para-la-salud.html ·····················

. . . .

Fuentes

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoViolar la ley de la IA supondrá multas del 7% de tus ingresos

Las empresas que violen la ley de la IA tendrán un problema muy gordo: uno llamado 7% de sus ingresos

La UE prohíbe el uso de IA para registrar emociones de empleados y la puntuación social

La Unión Europea veta sistemas de IA que registren emociones laborales y evalúen socialmente a individuos

Bruselas sancionará con hasta el 7% de los ingresos a empresas que utilicen IA para monitorear emociones de empleados

La Unión Europea establece sanciones severas para el uso indebido de la inteligencia artificial en la monitorización emocional y la puntuación social.
La Unión Europea ha implementado la Ley de IA, prohibiendo prácticas como la puntuación social y la monitorización de emociones en entornos laborales y académicos. Las empresas que incumplan esta normativa enfrentan multas de hasta 35 millones de euros o el 7% de sus ingresos anuales, aplicables sin importar la ubicación de la empresa. Aunque existen excepciones para agencias de seguridad en casos específicos, la regulación busca proteger los derechos fundamentales y la privacidad de los ciudadanos europeos.

 

La Ley de Inteligencia Artificial de la Unión Europea entró en vigor el 1 de agosto de 2024. Recientemente, la Comisión Europea detalló las prácticas prohibidas bajo esta normativa, enfocándose en aplicaciones de IA que interactúan con personas en diversos contextos. La regulación clasifica los sistemas de IA en cuatro niveles de riesgo: mínimo, limitado, alto e inaceptable.

Las prácticas consideradas de riesgo inaceptable incluyen:

Sistemas de IA que realizan puntuación social, creando perfiles de riesgo basados en el comportamiento individual.
IA que manipula decisiones humanas de manera subliminal o engañosa.
IA que explota vulnerabilidades relacionadas con la edad, discapacidad o nivel socioeconómico.
IA que predice crímenes basándose en la apariencia de las personas.
IA que usa datos biométricos para inferir características personales como la orientación sexual.
IA que recolecta datos biométricos en tiempo real en espacios públicos con fines policiales.
IA que monitorea y analiza las emociones de los empleados o estudiantes.
IA que amplía bases de datos de reconocimiento facial a partir de imágenes obtenidas en internet o cámaras de seguridad.
Las sanciones para empresas que violen estas regulaciones incluyen multas de hasta 35 millones de euros o el 7% de los ingresos anuales, aplicándose a cualquier empresa, sin importar su ubicación.

No obstante, existen excepciones: las agencias de seguridad pueden usar ciertos sistemas de recolección de datos biométricos para localizar personas desaparecidas o prevenir amenazas inminentes.

Los países miembros de la UE tienen hasta el 2 de agosto de 2025 para designar las autoridades responsables de supervisar el cumplimiento de la ley. A pesar de que el impacto en las funciones de IA en la UE podría ser limitado, el marco regulatorio sigue siendo un desafío para la adopción de innovaciones tecnológicas en Europa.

«¿Podrá la Unión Europea encontrar un equilibrio entre la protección de derechos y la competitividad tecnológica global sin quedar rezagada ante potencias como EE.UU. y China?»

·····················
Este es un resumen comentado, basado en la noticia original de Javier Pastor publicada en Xataka el 5 de febrero de 2025.
Puedes leer el artículo completo aquí:

https://www.xataka.com/robotica-e-ia/ue-revela-usos-prohibidos-ia-nada-registrar-emociones-empleados-puntuarnos-socialmente
·····················

.
.
.
.

Scroll al inicio
Verificado por MonsterInsights