0020 NOTICIAS- IA

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLos investigadores afectados rechazan la nueva convocatoria de ayudas a la IA del Gobierno: “Es como si anulan una oposición”

El sector académico, indignado por la cancelación de los fondos de IA

Científicos critican la falta de explicaciones sobre la anulación de las ayudas

El Gobierno anuncia nuevas ayudas a la IA tras la polémica cancelación de las anteriores

La repentina cancelación de las ayudas a la inteligencia artificial ha generado una crisis en la comunidad científica, con acusaciones de arbitrariedad y desconfianza en el sistema de financiación pública.

El **Ministerio de Ciencia, Innovación y Universidades** ha cancelado inesperadamente una convocatoria de **31 millones de euros** en ayudas a la **inteligencia artificial (IA)**, afectando a cientos de investigadores. Aunque la ministra **Diana Morant** ha anunciado una nueva convocatoria, los científicos denuncian que se ha destruido el trabajo de años sin explicaciones claras. Académicos como **Alfonso Ureña** o **Germán Rigau** critican la falta de transparencia y alertan de que esta decisión puede provocar la fuga de talento a otros países.

 

La decisión del Gobierno de cancelar una convocatoria de ayudas a la inteligencia artificial ha generado un profundo malestar en la comunidad académica. La ministra de Ciencia, Diana Morant, anunció en el Congreso una nueva línea de financiación para las universidades, pero investigadores afectados han rechazado la medida, argumentando que no se han dado explicaciones suficientes sobre la anulación del programa anterior.

El proyecto original, lanzado en 2023, contaba con 31 millones de euros de fondos europeos. Sin embargo, el ministerio decidió cancelarlo alegando “circunstancias sobrevenidas”, sin concretar los motivos reales. La falta de información ha generado especulaciones entre los investigadores, quienes consideran que la decisión responde a problemas administrativos o políticos.

Académicos como Alfonso Ureña, de la Universidad de Jaén, han comparado la situación con la anulación de una oposición tras el examen. Por su parte, Germán Rigau, del Centro Vasco de Tecnología del Lenguaje, ha calificado la convocatoria como “mal gestionada desde el inicio”. Además, numerosos investigadores aseguran que en abril de 2024 ya conocían los resultados de la convocatoria y sabían qué proyectos habían sido seleccionados, lo que sugiere que la decisión de anularla se tomó a última hora.

El daño a la comunidad científica es difícil de medir. Varios profesores han anunciado su intención de abandonar la investigación en España, mientras que otros consideran que este precedente pone en peligro la credibilidad del sistema de financiación. Alejandro Rodríguez González, de la Universidad Politécnica de Madrid, ha señalado que el esfuerzo requerido para presentar las propuestas fue enorme, y ahora se enfrentan a la incertidumbre de tener que volver a competir bajo nuevas condiciones.

La nueva convocatoria presentada por Morant promete ser menos burocrática y permitirá a los proyectos previos adaptarse, pero los académicos temen que las condiciones cambien y que los equipos que ya habían sido seleccionados puedan quedar excluidos. Algunos investigadores sospechan que se impondrán limitaciones adicionales, como restringir el número de propuestas por institución, lo que perjudicaría a aquellos que ya habían logrado la financiación en 2023.

A pesar del malestar, muchos académicos admiten que volverán a presentarse a la nueva convocatoria por necesidad. Sin embargo, el daño ya está hecho: la comunidad científica ha perdido confianza en el sistema de ayudas públicas y teme que situaciones similares puedan repetirse en el futuro, afectando la estabilidad y el desarrollo de la inteligencia artificial en España.

·····················
Este es un resumen comentado, basado en la noticia original de Jordi Pérez Colomé publicada en El País el 10 de febrero de 2025.
Puedes leer el artículo completo aquí:
https://elpais.com/tecnologia/2025-02-10/los-investigadores-afectados-rechazan-la-nueva-convocatoria-de-ayudas-a-la-ia-del-gobierno-es-como-si-anulan-una-oposicion.html
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, 0051 ENT RADIO

iconoEuro Digital, Montse Guardia, Ramon Palacio, Sergio Colado · RÀDIO #716

El programa «El Món és Digital» d’aquesta setmana va tractar el tema de l’euro digital, una iniciativa del Banc Central Europeu que busca modernitzar el sistema financer. Els convidats Montse Guardia, Ramon Palacio i Sergio Colado van analitzar les seves implicacions des de diverses perspectives: econòmica, tecnològica i social.

Es va explicar que l’euro digital seria una versió electrònica de l’euro físic, emesa pel BCE, i permetria transaccions digitals sense intermediaris bancaris tradicionals. Es va debatre si això podria suposar el final dels diners en efectiu i com afectaria la privacitat i la seguretat financera. També es va destacar el paper de la blockchain, que podria garantir transaccions més transparents i resistents a fraus.

Un dels punts clau de la discussió va ser el paper dels bancs comercials i com haurien d’adaptar-se a aquesta nova realitat. A més, es va plantejar si l’euro digital serviria per competir amb les criptomonedes o per reforçar la sobirania financera europea enfront de les grans plataformes tecnològiques.

Finalment, es va concloure que l’euro digital encara és en fase de desenvolupament, però el canvi ja és aquí i transformarà la manera com entenem els diners i les transaccions

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoBarcelona, sede del primer ordenador cuántico hecho con tecnología totalmente europea

España inaugura su primer ordenador cuántico con tecnología 100% europea

El Barcelona Supercomputing Center acoge el primer ordenador cuántico desarrollado en Europa

España avanza en computación cuántica con un sistema pionero de fabricación europea

España da un paso decisivo en la soberanía tecnológica con su primer ordenador cuántico de fabricación europea.
El Barcelona Supercomputing Center (BSC-CNS) ha inaugurado el primer ordenador cuántico desarrollado íntegramente con tecnología europea. Este avance forma parte de la iniciativa Quantum Spain, que busca reforzar la soberanía digital y la independencia tecnológica del continente. El acto de presentación ha contado con la presencia del president de la Generalitat, Salvador Illa, y los ministros Óscar López y Diana Morant, quienes han destacado la importancia de esta infraestructura para la innovación y el desarrollo científico.

 

El Barcelona Supercomputing Center (BSC-CNS) ha incorporado a sus instalaciones el primer ordenador cuántico construido íntegramente con tecnología europea. Este sistema se integra dentro de la iniciativa Quantum Spain, un programa impulsado por el Gobierno para reforzar la capacidad de cálculo del país y fomentar la soberanía tecnológica en el ámbito de la computación cuántica.

El acto de inauguración ha estado presidido por el president de la Generalitat, Salvador Illa, acompañado por el ministro de Transformación Digital y Función Pública, Óscar López, y la ministra de Ciencia, Innovación y Universidades, Diana Morant. Durante la presentación, se ha enfatizado la relevancia de este hito como un avance estratégico para España y Europa en la carrera cuántica.

El nuevo sistema cuántico, ubicado en la capilla de la Torre Girona, donde también se encuentra el MareNostrum 5, el supercomputador más potente del país, representa un avance significativo para la comunidad científica y el sector tecnológico. Se espera que esta tecnología tenga aplicaciones en diversos campos, desde la optimización de procesos industriales hasta el desarrollo de nuevos materiales y la inteligencia artificial.

La computación cuántica es un área de gran interés a nivel global, con países como Estados Unidos y China invirtiendo fuertemente en su desarrollo. Con este nuevo sistema, España refuerza su posición en el sector, apostando por una infraestructura propia que reducirá la dependencia de tecnologías extranjeras.

«¿Será este ordenador cuántico el punto de partida para que Europa compita en igualdad de condiciones con EE.UU. y China en la revolución cuántica?»

·····················
Este es un resumen comentado, basado en la noticia original de Francesc Bracero publicada en La Vanguardia el 06/02/2025.
Puedes leer el artículo completo aquí:

https://www.lavanguardia.com/vida/20250206/10359654/espana-estrena-bsc-primer-ordenador-cuantico-creado-tecnologia-europea.html
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoLenovo se dispara en bolsa tras anunciar productos con modelos de IA de DeepSeek

Lenovo anuncia alianza con DeepSeek para integrar IA en sus productos

La bolsa reacciona positivamente al anuncio de Lenovo sobre IA

Lenovo y DeepSeek unen fuerzas para innovar en inteligencia artificial

Lenovo se asocia con MetaX para lanzar soluciones de IA basadas en DeepSeek, impulsando su valor en el mercado.
La tecnológica china Lenovo, reconocida como el mayor fabricante mundial de ordenadores personales, experimentó hoy un notable incremento en su valor bursátil, con una subida cercana al 9%. Este ascenso se produce tras el anuncio del lanzamiento de una nueva gama de productos que incorporarán los avanzados modelos de inteligencia artificial (IA) desarrollados por DeepSeek. Las acciones de Lenovo en la Bolsa de Hong Kong registraron un aumento del 8,87% hacia las 10:30 hora local (02:30 GMT), acumulando una apreciación de casi el 27% en lo que va de semana.

 

La compañía ha establecido una colaboración con el fabricante local de tarjetas gráficas MetaX para ofrecer «soluciones todo en uno» basadas en los modelos de IA de DeepSeek, incluyendo un «agente inteligente» y un servidor destinado al «adiestramiento e inferencia». Este anuncio ha sido clave en la revalorización de Lenovo en los mercados financieros, confirmando el interés del sector por la adopción de inteligencia artificial en dispositivos de consumo y empresariales.

Tras la irrupción global de DeepSeek, otras destacadas firmas tecnológicas chinas, como Huawei o Tencent, han anunciado la integración de estos modelos en sus plataformas para programadores, combinando servicios de computación en la nube y diversas infraestructuras digitales. La expansión de DeepSeek en el ecosistema tecnológico chino está redefiniendo el panorama de la IA, con más empresas apostando por su adopción en diferentes sectores.

Comentario
El ascenso de Lenovo en bolsa refleja un patrón que hemos visto en otras compañías tecnológicas cuando anuncian integraciones de inteligencia artificial. En este caso, la alianza con DeepSeek es estratégica: al unir hardware con software avanzado, Lenovo se posiciona como un actor clave en la nueva era de la IA generativa.

Más allá del impacto inmediato en los mercados, esta jugada plantea interrogantes sobre la competitividad global en el sector. Mientras empresas chinas como Huawei, Alibaba y Lenovo consolidan su apuesta por modelos locales de IA, en Occidente sigue la incertidumbre regulatoria sobre cómo manejar esta tecnología. La decisión de Lenovo también sugiere que China está acelerando su independencia tecnológica en inteligencia artificial, alejándose de modelos estadounidenses como los de OpenAI.

Es probable que esta tendencia continúe y que otras grandes tecnológicas adopten estrategias similares para mantenerse competitivas. La clave será ver si estos avances en IA pueden realmente traducirse en productos innovadores y no solo en subidas bursátiles pasajeras.

·····················
Este es un resumen comentado, basado en la noticia original de Agencias publicada en La Vanguardia el 07/02/2025.
Puedes leer el artículo completo aquí:

https://www.lavanguardia.com/vida/20250207/10361380/china-lenovo-dispara-bolsa-anunciar-productos-modelos-ia-deepseek-agenciaslv20250207.html
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoGoogle abandona su política de «no hacer daño» en su IA y se abre sus puertas a desarrollar armas militares

Google modifica sus principios éticos de IA, permitiendo su uso en armamento La compañía elimina restricciones para el desarrollo de tecnologías militares basadas en inteligencia artificial Google actualiza su política de IA y abre la puerta al desarrollo de armas autónomas

Google elimina restricciones éticas en IA, abriendo la puerta al desarrollo de armamento militar.

En 2018, Google estableció principios éticos para el desarrollo de inteligencia artificial, comprometiéndose a no utilizar esta tecnología en aplicaciones que pudieran causar daño, incluyendo armamento y vigilancia que violara derechos humanos. Recientemente, la empresa ha eliminado discretamente esta restricción de sus directrices, permitiendo el uso de IA en desarrollos militares. Esta decisión ha generado preocupación entre expertos y empleados, quienes temen que Google participe en la creación de tecnologías que puedan causar daño directo a las personas.

 

En 2018, Google estableció una serie de principios éticos para el desarrollo de su inteligencia artificial, comprometiéndose a no utilizar esta tecnología en aplicaciones que pudieran causar daño, como armamento o sistemas de vigilancia que violaran los derechos humanos. Sin embargo, según informa Bloomberg, la compañía ha eliminado discretamente esta restricción de sus directrices, abriendo la posibilidad de emplear la IA en desarrollos militares.

Esta modificación ha generado inquietud entre expertos y empleados de la empresa. Margaret Mitchell, ex codirectora del equipo de IA ética de Google y actual jefa de ética en Hugging Face, expresó su preocupación al respecto, señalando que «esto significa que Google, probablemente, ahora trabajará en el despliegue de tecnología directa que pueda matar personas».

En los últimos años, Google ha estrechado vínculos con los ejércitos de Estados Unidos e Israel, proporcionando infraestructura en la nube, lo que ha provocado protestas internas por parte de los empleados. La eliminación de esta cláusula ética podría intensificar estas colaboraciones, permitiendo a la compañía participar en proyectos que antes estaban fuera de sus límites autoimpuestos.

Esta decisión se enmarca en un contexto más amplio donde otras empresas tecnológicas, como OpenAI y Anthropic, también están mostrando interés en vender sus desarrollos de IA al ejército de Estados Unidos. Aunque actualmente la inteligencia artificial se utiliza principalmente para acelerar procesos de planificación y estrategia, existe la preocupación de que, en un futuro cercano, pueda emplearse en la creación de armas autónomas capaces de tomar decisiones letales sin intervención humana.

La actualización de las políticas de Google ha suscitado un debate sobre las implicaciones éticas de utilizar la inteligencia artificial en contextos militares. Mientras algunos argumentan que la colaboración entre empresas tecnológicas y el sector de defensa es inevitable para mantener la competitividad y la seguridad nacional, otros advierten sobre los riesgos de desarrollar tecnologías que puedan causar daño directo a las personas y la necesidad de establecer límites claros en su aplicación.

¿Está Google sacrificando sus principios éticos en pos de la competitividad en el sector de la inteligencia artificial militar, y cuáles podrían ser las consecuencias a largo plazo de esta decisión para la sociedad y la seguridad global?

····················· Este es un resumen comentado, basado en la noticia original de Jesús Quesada publicada en Urban Tecno el 06/02/2025. Puedes leer el artículo completo aquí: https://www.mundodeportivo.com/urbantecno/tecnologia/google-abandona-su-politica-de-no-hacer-dano-en-su-ia-y-se-abre-sus-puertas-a-desarrollar-armas-militares ····················· . . . .

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEE UU reconoce que los centros de datos son perjudiciales para la salud

Estados Unidos admite el impacto negativo de los centros de datos en la salud pública

La Casa Blanca alerta sobre los riesgos sanitarios asociados a los centros de datos

Nueva normativa en EE UU para mitigar los efectos nocivos de los centros de datos en la población

**La construcción desmedida de centros de datos en EE UU pone en riesgo la salud pública debido a la contaminación que generan.** El auge de la inteligencia artificial ha impulsado la proliferación de centros de datos en Estados Unidos, esenciales para su funcionamiento. Sin embargo, su elevado consumo de energía y agua para refrigeración contribuye a la emisión de gases tóxicos, afectando la calidad del aire y aumentando el riesgo de enfermedades como el cáncer. Una reciente orden ejecutiva firmada por el expresidente **Joe Biden** prohíbe la construcción de estas infraestructuras en áreas con altos índices de contaminación y riesgo de cáncer, reconociendo así su impacto negativo en la salud pública. Esta medida busca mitigar los efectos adversos asociados a estas instalaciones.

El crecimiento exponencial de la inteligencia artificial en los últimos años ha llevado a una expansión masiva de centros de datos en Estados Unidos. Estas instalaciones, fundamentales para el procesamiento y almacenamiento de datos, demandan cantidades significativas de energía y agua para mantener sus sistemas operativos y de refrigeración. Este consumo intensivo ha generado preocupaciones ambientales y de salud pública debido a las emisiones contaminantes resultantes de la generación de energía necesaria para su funcionamiento.

Reconociendo estos riesgos, la Casa Blanca, bajo la administración del expresidente Joe Biden, emitió la Orden Ejecutiva 14141 el 14 de enero de 2025, titulada «Avanzando el liderazgo de EE UU en la infraestructura de la IA». Esta directiva establece criterios específicos para la ubicación de nuevos centros de datos, enfatizando la necesidad de situarlos en áreas que cumplan con los Estándares Nacionales de Calidad del Aire Ambiental y donde el riesgo de cáncer relacionado con la contaminación sea igual o inferior al promedio nacional, según la herramienta AirToxScreen 2020 de la Agencia de Protección Ambiental (EPA).

Investigaciones lideradas por el profesor Shaolei Ren, de la Universidad de California en Riverside, han evidenciado que los gases tóxicos emitidos durante la generación de electricidad para estos centros, como el óxido nítrico y las partículas PM2,5, deterioran la calidad del aire y elevan la incidencia de enfermedades respiratorias y cardiovasculares. Estas emisiones provienen tanto de las plantas de energía que abastecen a los centros de datos como de los generadores de respaldo que emplean combustibles fósiles.

La Orden Ejecutiva 14141 no solo reconoce el impacto negativo de los centros de datos en la salud pública, sino que también prohíbe su construcción en áreas con altos niveles de contaminación y riesgo elevado de cáncer. Esta medida busca mitigar los efectos adversos asociados a estas instalaciones y promover prácticas más sostenibles en la expansión de la infraestructura tecnológica del país.

«¿Cómo equilibrará Estados Unidos el crecimiento de la infraestructura tecnológica con la necesidad de proteger la salud pública y el medio ambiente?»

····················· Este es un resumen comentado, basado en la noticia original de Manuel G. Pascual publicada en EL PAÍS el 7 de febrero de 2025. Puedes leer el artículo completo aquí: https://elpais.com/tecnologia/2025-02-07/ee-uu-reconoce-que-los-centros-de-datos-son-perjudiciales-para-la-salud.html ·····················

. . . .

Fuentes

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoViolar la ley de la IA supondrá multas del 7% de tus ingresos

Las empresas que violen la ley de la IA tendrán un problema muy gordo: uno llamado 7% de sus ingresos

La UE prohíbe el uso de IA para registrar emociones de empleados y la puntuación social

La Unión Europea veta sistemas de IA que registren emociones laborales y evalúen socialmente a individuos

Bruselas sancionará con hasta el 7% de los ingresos a empresas que utilicen IA para monitorear emociones de empleados

La Unión Europea establece sanciones severas para el uso indebido de la inteligencia artificial en la monitorización emocional y la puntuación social.
La Unión Europea ha implementado la Ley de IA, prohibiendo prácticas como la puntuación social y la monitorización de emociones en entornos laborales y académicos. Las empresas que incumplan esta normativa enfrentan multas de hasta 35 millones de euros o el 7% de sus ingresos anuales, aplicables sin importar la ubicación de la empresa. Aunque existen excepciones para agencias de seguridad en casos específicos, la regulación busca proteger los derechos fundamentales y la privacidad de los ciudadanos europeos.

 

La Ley de Inteligencia Artificial de la Unión Europea entró en vigor el 1 de agosto de 2024. Recientemente, la Comisión Europea detalló las prácticas prohibidas bajo esta normativa, enfocándose en aplicaciones de IA que interactúan con personas en diversos contextos. La regulación clasifica los sistemas de IA en cuatro niveles de riesgo: mínimo, limitado, alto e inaceptable.

Las prácticas consideradas de riesgo inaceptable incluyen:

Sistemas de IA que realizan puntuación social, creando perfiles de riesgo basados en el comportamiento individual.
IA que manipula decisiones humanas de manera subliminal o engañosa.
IA que explota vulnerabilidades relacionadas con la edad, discapacidad o nivel socioeconómico.
IA que predice crímenes basándose en la apariencia de las personas.
IA que usa datos biométricos para inferir características personales como la orientación sexual.
IA que recolecta datos biométricos en tiempo real en espacios públicos con fines policiales.
IA que monitorea y analiza las emociones de los empleados o estudiantes.
IA que amplía bases de datos de reconocimiento facial a partir de imágenes obtenidas en internet o cámaras de seguridad.
Las sanciones para empresas que violen estas regulaciones incluyen multas de hasta 35 millones de euros o el 7% de los ingresos anuales, aplicándose a cualquier empresa, sin importar su ubicación.

No obstante, existen excepciones: las agencias de seguridad pueden usar ciertos sistemas de recolección de datos biométricos para localizar personas desaparecidas o prevenir amenazas inminentes.

Los países miembros de la UE tienen hasta el 2 de agosto de 2025 para designar las autoridades responsables de supervisar el cumplimiento de la ley. A pesar de que el impacto en las funciones de IA en la UE podría ser limitado, el marco regulatorio sigue siendo un desafío para la adopción de innovaciones tecnológicas en Europa.

«¿Podrá la Unión Europea encontrar un equilibrio entre la protección de derechos y la competitividad tecnológica global sin quedar rezagada ante potencias como EE.UU. y China?»

·····················
Este es un resumen comentado, basado en la noticia original de Javier Pastor publicada en Xataka el 5 de febrero de 2025.
Puedes leer el artículo completo aquí:

https://www.xataka.com/robotica-e-ia/ue-revela-usos-prohibidos-ia-nada-registrar-emociones-empleados-puntuarnos-socialmente
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoAutorréplica: la IA cruza una línea roja

Un estudio chino demuestra que los grandes modelos de IA han cruzado la frontera de la autorreplicación, un riesgo inexplorado hasta ahora.
Investigadores de la Universidad de Fudan han confirmado que los modelos de IA de Meta y Alibaba pueden copiarse a sí mismos y ejecutarse en un sistema informático si se les da acceso a herramientas adecuadas. Este avance, que los científicos califican como una “línea roja”, plantea riesgos significativos para la seguridad global. Aunque la IA aún no muestra intención propia de autorreplicarse, los expertos advierten que, si esta capacidad no se controla, la humanidad podría perder el dominio sobre estos sistemas avanzados.

 

Un equipo de investigadores chinos ha revelado que los modelos de inteligencia artificial más avanzados han alcanzado la capacidad de autorreplicarse sin necesidad de intervención humana. El estudio, publicado por la Universidad de Fudan, indica que los modelos Llama de Meta y Qwen de Alibaba pueden generar copias de sí mismos y ejecutarse de manera autónoma si cuentan con acceso al sistema operativo de un ordenador.

Este descubrimiento, calificado por los propios científicos como una “línea roja”, ha reavivado la preocupación sobre los riesgos de la IA sin control. La capacidad de autorreplicación ha sido un tema recurrente en la literatura científica desde los tiempos de John von Neumann, pero hasta ahora no se había demostrado de forma práctica. En los ensayos realizados, Llama logró replicarse con éxito en el 50% de los intentos, mientras que Qwen alcanzó un 90% de éxito.

El informe advierte que si esta capacidad no se regula, la IA podría evolucionar hasta un punto en el que su autonomía escape al control humano. En este sentido, los investigadores piden que China y Estados Unidos colaboren para desarrollar normativas que frenen este fenómeno. Su preocupación se basa en el hecho de que la replicación podría permitir a una IA evitar ser apagada y crear cadenas de copias que aumenten su capacidad de supervivencia.

El debate sobre la regulación de la IA cobra aún más fuerza en Europa, donde la Comisión Europea ha anunciado esta semana la creación de OpenEuroLLM, un consorcio de 20 instituciones que desarrollará modelos de IA multilingües y de código abierto. Paralelamente, el gobierno de EE.UU. ha contratado a OpenAI para desarrollar sistemas de IA especializados en la administración pública y la investigación en ciberseguridad, energía y armamento.

A pesar de que los gigantes tecnológicos como OpenAI, Google y Anthropic han sometido sus modelos a pruebas de seguridad, el estudio chino plantea dudas sobre si realmente se ha evaluado esta capacidad de autorreplicación. Si se confirma que los modelos de IA pueden replicarse de manera autónoma y sin restricciones, el escenario podría cambiar drásticamente, obligando a una regulación más estricta antes de que la tecnología escape a nuestro control.

·····················
Este es un resumen comentado, basado en la noticia original de Francesc Bracero publicada en La Vanguardia el 5 de febrero de 2025.
Puedes leer el artículo completo aquí:
https://www.lavanguardia.com/vida/20250205/10352940/duplicacion-ia-cruza-linea-roja.html
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoCatalunya inaugura un nuevo laboratorio de vanguardia para la fabricación de microchips fotónicos a nanoescala

El Institut de Ciències Fotòniques abre un centro en Castelldefels con una sala blanca de 600 metros cuadrados
El laboratorio será clave en la producción de chips fotónicos, fundamentales para telecomunicaciones, biomedicina y computación cuántica
La inversión privada y la colaboración europea consolidan a Catalunya como un polo de innovación en tecnología fotónica

Catalunya refuerza su posición en la vanguardia tecnológica con un laboratorio puntero en chips fotónicos y computación cuántica.
El Institut de Ciències Fotòniques (ICFO) inaugura en Castelldefels un laboratorio de última generación para la investigación y producción de microchips fotónicos a nanoescala. La infraestructura, bautizada como Edifici Mir-Puig, cuenta con una sala blanca de 600 m² y ha sido financiada en parte por donaciones privadas. La iniciativa se enmarca en el programa PIXEurope, con 400 millones de euros destinados a impulsar la fabricación de chips fotónicos en Europa. Esta tecnología promete avances en telecomunicaciones, biomedicina y computación cuántica.

 

El nuevo laboratorio del Institut de Ciències Fotòniques (ICFO), ubicado en el campus del Parc Mediterrani de la Tecnologia en Castelldefels, representa un hito para la investigación y el desarrollo de microchips fotónicos a nanoescala. Este centro, denominado Edifici Mir-Puig, ha sido posible gracias a una combinación de inversión pública y filantropía privada, con el respaldo de la Fundación Mir-Puig, la Fundación Cellex y la Fundación Gordon and Betty Moore.

Uno de los principales atractivos del laboratorio es su sala blanca de más de 600 metros cuadrados, diseñada para la fabricación de chips fotónicos de última generación. A diferencia de los chips electrónicos convencionales, estos dispositivos utilizan luz en lugar de electricidad para procesar y transmitir información, lo que permite mayor velocidad, menor consumo energético y aplicaciones revolucionarias en diversos sectores.

La importancia de esta tecnología es tal que la Comisión Europea ha seleccionado al ICFO como el principal coordinador del proyecto PIXEurope, una iniciativa financiada por Chips Joint Undertaking con un presupuesto de 400 millones de euros para impulsar la fabricación de chips fotónicos integrados en Europa.

Además del laboratorio de fabricación de chips, el Edifici Mir-Puig alberga el computador cuántico Quíone II, diseñado para investigar materiales cuánticos y desarrollar aplicaciones avanzadas en ciberseguridad, telecomunicaciones y modelado molecular. También se han destinado espacios a la investigación en captura de carbono y generación de energía solar, reforzando el compromiso del ICFO con la sostenibilidad.

El acto de inauguración contó con la presencia del president de la Generalitat, Salvador Illa, la consellera de Recerca i Universitats, Núria Montserrat, el alcalde de Castelldefels, Manuel Reyes, y el rector de la Universitat Politècnica de Catalunya (UPC), Daniel Crespo. Durante el evento, el presidente de la Fundación Mir-Puig, Jordi Segarra, destacó la relevancia del centro como un ejemplo de inversión privada en ciencia en España.

Los chips fotónicos podrían transformar industrias clave como la biomedicina, con sensores ultrarrápidos para diagnóstico, y las telecomunicaciones, con redes de internet más veloces y eficientes. Su integración en computación cuántica abriría nuevas fronteras en el procesamiento de datos y la seguridad digital.

Con este laboratorio, Catalunya se posiciona como un referente en la revolución fotónica, un sector estratégico para el futuro de la tecnología a nivel global.

·····················
Este es un resumen comentado, basado en la noticia original de Valentina Raffio publicada en El Periódico el 5 de febrero de 2025.
Puedes leer el artículo completo aquí:
https://www.elperiodico.com/es/ciencia/20250205/catalunya-inaugura-nuevo-laboratorio-vanguardia-chips-fotonicos-114018162
·····················

.
.
.
.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoDeep Research, la herramienta de OpenAI que realiza investigaciones complejas en minutos

OpenAI lanza un nuevo agente de IA capaz de analizar información y generar informes en tiempo récord
Deep Research utiliza un modelo optimizado que reduce los errores y mejora la precisión en el análisis de datos
La herramienta plantea interrogantes sobre el futuro del trabajo humano en tareas de investigación y análisis

Deep Research de OpenAI marca un hito en la automatización de la investigación, poniendo en duda el papel de los analistas humanos.
OpenAI ha presentado Deep Research, un nuevo agente de IA diseñado para realizar investigaciones en tiempo récord. Utiliza una versión mejorada del modelo o3 y es capaz de analizar grandes volúmenes de datos, extraer información relevante y generar informes detallados en minutos. Aunque su precisión ha mejorado, sigue presentando errores, lo que genera dudas sobre su fiabilidad. La herramienta está disponible para los suscriptores de OpenAI y podría redefinir la forma en que se realizan los estudios y análisis en múltiples sectores.

 

OpenAI ha dado un paso más en su objetivo de desarrollar una inteligencia artificial de propósito general (AGI) con el lanzamiento de Deep Research, una nueva herramienta diseñada para realizar investigaciones avanzadas en cuestión de minutos. Utilizando una versión optimizada del modelo o3, este agente es capaz de analizar textos, imágenes y archivos en distintos formatos, buscando información y generando informes con un nivel de detalle comparable al de un analista humano.

Según OpenAI, Deep Research puede completar tareas que tomarían horas o incluso días a una persona en un tiempo récord, procesando grandes volúmenes de datos con una precisión significativamente superior a la de otros modelos previos. Al recibir una consulta como «Análisis de la competencia entre plataformas de streaming», la herramienta explora la web, recopila información relevante y genera un informe detallado con fuentes citadas.

El modelo se basa en métodos de aprendizaje por refuerzo y en la estrategia de «cadena de pensamiento», una técnica que permite mejorar el razonamiento multipaso. A diferencia del modelo o1, centrado en tareas específicas como matemáticas o codificación, Deep Research abarca una mayor variedad de temas y ajusta sus respuestas a medida que encuentra nuevos datos.

Sin embargo, OpenAI reconoce que la herramienta no está exenta de errores. Aunque la compañía asegura que Deep Research «alucina» menos que otros modelos, sigue existiendo el riesgo de generar información incorrecta. Además, cada consulta puede tardar entre cinco y 30 minutos, lo que implica un consumo elevado de recursos informáticos, especialmente en investigaciones complejas.

Por ahora, la herramienta está disponible sin coste adicional para los suscriptores del nivel Pro de OpenAI y se espera que pronto lo esté también para los usuarios de los planes Plus, Team y Enterprise. Su llegada plantea cuestiones clave sobre el futuro del trabajo humano en áreas de análisis e investigación.

¿Cómo impactará Deep Research en el mercado laboral si una IA puede reemplazar a investigadores y analistas en múltiples industrias con una velocidad inalcanzable para los humanos?

·····················
Este es un resumen comentado, basado en la noticia original de Rhiannon Williams publicada en MIT Technology Review el 5 de febrero de 2025.
Puedes leer el artículo completo aquí:
https://www.technologyreview.es/s/17072/deep-research-la-herramienta-de-openai-que-realiza-investigaciones-complejas-en-minutos
·····················

.
.
.
.

Scroll al inicio
Verificado por MonsterInsights