Nombre del autor:Tomas Cascante

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoEl ‘profeta’ de La Gran Apuesta lo ve claro: Michael Burry apuesta 1.100 millones de dólares al colapso de la burbuja de la IA

Michael Burry vuelve a temblar a Wall Street con su apuesta contra la inteligencia artificial

ZIP

El inversor Michael Burry ha apostado 1.100 millones de dólares a la caída de Nvidia y Palantir, alertando sobre una posible burbuja en el sector de la inteligencia artificial, que ha crecido explosivamente en 2025.

El legendario inversor Michael Burry, conocido por su papel en la película «La gran apuesta», ha vuelto a hacer temblar a Wall Street con su reciente apuesta contra la inteligencia artificial. En 2025, este sector ha experimentado un crecimiento explosivo, lo que ha llevado a Burry a invertir 1.100 millones de dólares en contratos de venta (puts) en dos de sus principales exponentes: Nvidia, fabricante de chips, y Palantir, empresa especializada en análisis de datos mediante IA. Esta operación se realizó a través de su fondo, Scion Asset Management, donde adquirió opciones por valor de 912 millones de dólares en Palantir y 187 millones en Nvidia.

Burry ha expresado su preocupación a través de la red social X, compartiendo una imagen de Christian Bale en su papel de la película y la frase: “A veces, vemos burbujas. A veces, hay algo que hacer al respecto. A veces, la única jugada ganadora es no jugar”. Además, publicó gráficos que comparan el crecimiento del gasto tecnológico actual con el de la burbuja del año 2000, así como la desaceleración en la demanda de computación en la nube.

La reacción del mercado fue inmediata, con las acciones de Nvidia cayendo un 2 % y las de Palantir un 7 % en las operaciones previas a la apertura. Expertos como James Kardatzke, cofundador de Quiver Quantitative, han señalado que Burry tiene un historial de detectar burbujas antes de que estallen, como ocurrió con el mercado inmobiliario en 2008, lo que sugiere que ahora cree que existe una burbuja de IA a punto de estallar.

La preocupación por la sobrevaloración en el sector no es nueva. Sam Altman, CEO de OpenAI, reconoció que los inversores podrían estar “demasiado entusiasmados” con la IA. Según datos de PitchBook, se han invertido 161.000 millones de dólares en el sector en lo que va de año, concentrados en apenas 10 empresas.

En medio de este contexto, Nvidia se convirtió en la primera empresa cotizada en bolsa en superar los 5 billones de dólares de valoración, más que el PIB de Alemania. Por su parte, Palantir ha visto cómo sus acciones se han revalorizado un 400 % en el último año. Sin embargo, no todos comparten el optimismo. Un informe del MIT publicado en agosto advertía que la mayoría de las inversiones en IA no generan retorno alguno, y David Solomon, CEO de Goldman Sachs, afirmó que gran parte del capital invertido “no generará rentabilidad”.

La historia de Michael Burry quedó inmortalizada en el libro de Michael Lewis «La gran apuesta», adaptado al cine en 2015 y ganador del Oscar. Su apuesta de mil millones de dólares contra el mercado hipotecario comenzó en 2005 y aumentó el valor de su fondo en un 489 % cuando el sistema colapsó.

¿QUIÉN DIJO QUE LA HISTORIA NO SE REPITE?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoNi Georgina ni Rosalía: así engañan los vídeos falsos creados con inteligencia artificial

Ni Georgina ni Rosalía: así engañan los vídeos falsos creados con inteligencia artificial

ZIP

Los estafadores utilizan inteligencia artificial para crear vídeos falsos de celebridades como Georgina y Rosalía, engañando a usuarios con ofertas de empleo y promociones inexistentes, lo que aumenta el riesgo de fraudes online.

La manipulación de vídeos mediante inteligencia artificial se ha convertido en una herramienta común para estafadores que buscan engañar a los usuarios en internet. Recientemente, se han documentado casos en los que figuras públicas como Georgina y Rosalía han sido suplantadas en vídeos falsos. En un ejemplo, un vídeo editado de Georgina muestra a la influencer ofreciendo un trabajo para revisar vídeos de TikTok, prometiendo entre 100 y 300 dólares al día, aunque el acento latinoamericano utilizado en el clip revela que no es auténtico.

Por otro lado, un vídeo que circula en redes sociales muestra a una supuesta Rosalía recomendando un juego con la promesa de un 99% de posibilidades de ganar, una afirmación que la artista nunca ha hecho. Estos incidentes son solo algunos de los muchos que han surgido a medida que la tecnología de inteligencia artificial se vuelve más accesible y sofisticada.

El cofundador de SciTheWorld, Sergio Teleña, ha advertido que la línea entre lo real y lo falso se está desdibujando, lo que hace que sea cada vez más difícil para los usuarios distinguir entre contenido genuino y manipulado. Además de la inteligencia artificial, los estafadores también utilizan métodos más tradicionales, como la creación de cuentas falsas en redes sociales. Un caso reciente involucra a la cantante Melody, quien ha alertado a sus seguidores sobre un perfil falso que intenta estafarlos con promesas engañosas.

Es crucial que los usuarios se mantengan alerta y verifiquen la autenticidad de la información que reciben, especialmente cuando involucra ofertas de trabajo o inversiones. La importancia de acudir a fuentes oficiales nunca ha sido tan relevante en un mundo donde la tecnología avanza rápidamente.

¿NO SERÁ QUE EN UN FUTURO PRONTO NO SABREMOS QUIÉN ES QUIÉN EN LA RED? ¿QUIÉN SE ATREVERÁ A CREER EN LO QUE VE?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoCrean un ‘centinela’ para evitar los sesgos en la inteligencia artificial de reconocimiento facial

La inteligencia artificial hereda prejuicios: el nuevo banco de imágenes ético de Sony AI

ZIP

Un equipo de Sony AI, liderado por Alice Xiang, presenta el Fair Human-Centric Image Benchmark (FHIBE), un banco de imágenes ético que busca reducir los sesgos en inteligencia artificial. Se basa en fotos de 1.981 personas de 80 países.

La inteligencia artificial (IA) ha sido objeto de críticas en los últimos años debido a su tendencia a perpetuar prejuicios y estereotipos. Esto se debe, en gran parte, a que muchos sistemas de reconocimiento facial y análisis de imágenes han sido entrenados con datos obtenidos sin consentimiento y con escasa diversidad. En este contexto, un equipo de Sony AI ha desarrollado una alternativa innovadora: el Fair Human-Centric Image Benchmark (FHIBE). Este proyecto, liderado por la investigadora Alice Xiang, busca crear un conjunto de datos ético y diverso que permita evaluar los sesgos en los modelos de visión artificial de manera justa y transparente.

El FHIBE se compone de fotografías de 1.981 personas de más de 80 países, todas obtenidas con el consentimiento de los participantes y tras una compensación económica. Este enfoque no solo garantiza la ética en la recolección de datos, sino que también permite a los participantes retirar sus imágenes en cualquier momento. Además, se han implementado técnicas avanzadas de privacidad para proteger la información personal.

Los investigadores han puesto a prueba el FHIBE con modelos de visión artificial ampliamente utilizados, como sistemas de detección y verificación facial. Los resultados han revelado que estos algoritmos aún muestran diferencias significativas en precisión según la edad, el color de piel y la ascendencia. Por ejemplo, los modelos funcionan mejor con personas jóvenes y de piel clara, mientras que tienen un rendimiento deficiente con personas mayores o de ascendencia africana.

Además, el estudio ha descubierto nuevos tipos de sesgos que no habían sido identificados en investigaciones anteriores. Por ejemplo, los modelos de reconocimiento facial tienden a confundir más a hombres calvos, mientras que los sistemas de verificación facial presentan mayores dificultades con las mujeres debido a la variabilidad en los peinados. Los modelos multimodales, como CLIP de OpenAI, también han mostrado distorsiones significativas, identificando erróneamente a los hombres como el «género por defecto» y asociando rostros africanos con entornos rurales.

El objetivo del FHIBE no es reemplazar conjuntos de datos existentes, sino establecer un nuevo estándar ético que permita auditar sistemas de IA sin recurrir a imágenes obtenidas sin permiso. Este enfoque busca reducir el riesgo de reproducir desigualdades y destaca la paradoja de que la comunidad científica, que denuncia los sesgos de la IA, siga dependiendo de bases de datos creadas sin consentimiento.

La propuesta de FHIBE es un paso hacia la creación de una herramienta de confianza para evaluar la equidad de los modelos de IA, permitiendo la actualización continua de la base de datos y asegurando que los autores de las imágenes tengan el control sobre su uso.

¿NO ES IRÓNICO QUE LA SOLUCIÓN A LOS SESGOS EN IA SURJA DE UNA BASE DE DATOS ÉTICA, MIENTRAS QUE ANTES SE PRIORITIZÓ LA CANTIDAD SOBRE LA CALIDAD? ¿NO?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoAdiós a los procesos de selección tradicionales: esta será la nueva tendencia para los próximos años, según una experta en recursos humanos

La inteligencia artificial transforma la selección de personal

ZIP

A medida que la inteligencia artificial optimiza la selección de personal, los técnicos de recursos humanos se benefician de procesos más rápidos y eficientes, mejorando la experiencia del candidato y fomentando un trato más personalizado en las contrataciones.

La inteligencia artificial (IA) está revolucionando el mundo laboral, especialmente en el ámbito de la selección de personal. Según **Eva Porto**, psicóloga especializada en recursos humanos, la IA no solo agiliza las tareas repetitivas, sino que también multiplica la productividad de los técnicos de selección. Esto se traduce en una optimización del proceso de identificación, evaluación y contratación de candidatos, convirtiendo a estos profesionales en piezas clave para el éxito empresarial a corto y largo plazo.

La implementación de la IA promete mejorar la experiencia de los candidatos, asegurando que todos reciban retroalimentación, lo que permite un enfoque más personalizado. Sin embargo, **Porto** enfatiza que, a pesar de los avances tecnológicos, la supervisión humana sigue siendo esencial en el proceso de selección. «La IA ha venido para quedarse», afirma, destacando que aunque los procesos se vuelven más eficientes, la decisión final debe recaer en las personas.

Además, la influencia de las redes sociales en la selección de personal ha crecido considerablemente en los últimos años. **Eva Porto** ha conversado con diversas empresas que ahora valoran no solo las competencias técnicas de los candidatos, sino también sus valores y la imagen que proyectan al exterior. Este cambio de paradigma es notable, ya que hace cinco años, estos aspectos no tenían tanta relevancia en el proceso de selección.

Sin embargo, la experta también advierte sobre la presencia de sesgos en la selección de personal. La objetividad es un desafío inherente a la naturaleza humana, lo que puede afectar la toma de decisiones. Para mitigar esto, **Porto** recomienda la formación de los técnicos de selección para que reconozcan y superen sus sesgos. Además, sugiere el uso de herramientas de IA que analicen currículums de forma ciega, centrándose en datos relevantes en lugar de aspectos personales como la foto, el nombre o el sexo del candidato.

Finalmente, **Eva Porto** destaca la importancia de contar con equipos de recursos humanos diversos, que incluyan diferentes edades, perfiles y géneros, para enriquecer el proceso de selección y garantizar una mayor equidad.

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO PUEDE SER HUMANA?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoLos autobuses públicos de Noruega tienen una puerta trasera china que nadie conocía: pueden apagarse remotamente

Ruter descubre vulnerabilidades de ciberseguridad en autobuses Yutong de China

ZIP

La empresa de transporte público noruega Ruter ha detectado problemas de seguridad en autobuses Yutong, adquiridos en China. Se encontraron accesos remotos que podrían permitir al fabricante inutilizar los vehículos, lo que plantea serias preocupaciones sobre la ciberseguridad.

La empresa de transporte público noruega Ruter ha hecho un importante hallazgo en relación con la seguridad de su flota de autobuses eléctricos, específicamente aquellos fabricados por la compañía china Yutong. En un informe reciente, Ruter reveló que, tras realizar exhaustivas pruebas a sus vehículos, se encontraron vulnerabilidades significativas que podrían comprometer la seguridad de los pasajeros y la operatividad de los autobuses. Estos vehículos, que son parte de la flota de Ruter, tienen la capacidad de recibir actualizaciones de software de forma remota, lo que, aunque es una ventaja tecnológica, también plantea riesgos de seguridad.

Las pruebas realizadas por Ruter incluyeron la inspección de autobuses Yutong y de modelos más antiguos de la firma VDL de los Países Bajos. Durante estas inspecciones, se descubrió que Yutong tenía acceso digital a los sistemas de control de los autobuses, lo que les permitía realizar actualizaciones y diagnósticos a través de una conexión a Internet. Esta situación se vuelve alarmante, ya que se identificó que algunos autobuses estaban equipados con tarjetas SIM rumanas, lo que facilitaba el acceso remoto al sistema de control de la batería y la alimentación eléctrica.

La posibilidad de que el fabricante pudiera detener o inutilizar un autobús a distancia es un tema de gran preocupación para Ruter, que ha comenzado a implementar medidas para mitigar estos riesgos. La empresa ha colaborado con el Ministerio de Transportes para desarrollar soluciones que incluyan la creación de cortafuegos y la imposición de requisitos de ciberseguridad más estrictos en futuras adquisiciones de autobuses.

Además, Ruter está trabajando con autoridades nacionales y locales para definir requisitos claros de ciberseguridad, con la intención de aprovechar la oportunidad tecnológica que se presenta antes de que la próxima generación de autobuses sea más integrada y, por lo tanto, más difícil de asegurar. Este caso resalta la importancia de la ciberseguridad en todos los aspectos de la vida moderna, incluso en el transporte público.

¿NO ES IRÓNICO QUE LOS AUTOBUSES, UN MEDIO DE TRANSPORTE TAN COMÚN, PUEDAN SER OBJETOS DE ACCESO REMOTO Y CONTROL? ¿NO DEBERÍAN SER MÁS SEGUROS?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

icono«El nuevo sistema de nómina con IA de mi empresa decidió que este mes no merezco cobrar». Lo peor fue la explicación de RRHH

Un ingeniero de software se queda sin cobrar por un error de un sistema automatizado de nóminas

ZIP
Un ingeniero de software relató en Reddit cómo su empresa reemplazó el departamento de nóminas por un sistema automatizado de IA, que detuvo su salario por una ‘irregularidad’ en su registro de actividad, generando malestar entre los empleados.

El protagonista de la historia es un ingeniero de software que trabaja en una empresa tecnológica de tamaño medio. Recientemente, compartió su experiencia en Reddit sobre cómo su compañía decidió sustituir el departamento tradicional de nóminas por un sistema automatizado basado en inteligencia artificial (IA). Este cambio tenía como objetivo «optimizar» la gestión de tiempos y pagos, pero resultó en un grave inconveniente para el ingeniero.

El día de cobro, su cuenta bancaria permaneció vacía, lo que lo llevó a consultar al departamento de Recursos Humanos. Allí le informaron que el sistema había detectado una ‘irregularidad’ en su registro de actividad, lo que llevó a la decisión de pausar el pago de su salario. Esta irregularidad se debió a que el ingeniero había terminado su jornada laboral antes de tiempo para acudir a una cita con el dentista.

Lo más sorprendente fue la respuesta de la empresa, que afirmó que «no es un fallo, sino parte del proceso de aprendizaje del sistema». Según explicaron, el programa se corregiría solo en el siguiente ciclo de pago, lo que significaba que el ingeniero tendría que esperar un mes entero para recibir su salario.

La publicación en Reddit acumuló miles de comentarios en pocas horas, reflejando el creciente malestar hacia la automatización en el entorno laboral. Muchos usuarios denunciaron lo que llamaron «robo de salarios automatizado» y exigieron medidas legales inmediatas, recordando que en la mayoría de países avanzados no se permiten demoras en el pago de sueldos.

Otros compartieron experiencias similares, como retrasos en pagos por errores de software o sistemas que penalizan ausencias justificadas. Este caso pone de relieve la necesidad de supervisión humana en procesos críticos como la nómina, ya que un pequeño error en los parámetros del sistema puede tener consecuencias graves para los empleados.

El sistema Eloquent AI, adoptado por la empresa del ingeniero, fue parte de una estrategia de «modernización basada en la IA» para reducir errores humanos y mejorar la transparencia en el proceso de nómina. Sin embargo, el incidente plantea una pregunta fundamental: ¿quién es responsable cuando un sistema automatizado causa perjuicios económicos a un empleado? Las leyes laborales actuales no contemplan claramente los errores provocados por la IA, dejando a los empleados en un limbo legal.

¿QUIÉN DIJO QUE LA TECNOLOGÍA HARÍA NUESTRAS VIDAS MÁS FÁCILES?

Fuente: www.genbeta.com | https://www.genbeta.com/laboral/nuevo-sistema-nomina-ia-mi-empresa-decidio-que-este-mes-no-merezco-cobrar-peor-fue-explicacion-rrhh

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

icono«El coronavirus fue una broma en comparación con lo que llega»: el fuerte aviso de Eric Schmidt, ex CEO de Google

La inteligencia artificial puede crear virus mortales, advierte Eric Schmidt

ZIP

A medida que la inteligencia artificial avanza, Eric Schmidt, ex CEO de Google, advierte sobre la facilidad de crear virus mortales. En una entrevista, destaca la necesidad de regular esta tecnología para evitar peligros potenciales y proteger a la humanidad.

La inteligencia artificial (IA) está evolucionando de manera acelerada, transformando lo que antes era ciencia ficción en una realidad cotidiana. Eric Schmidt, ex CEO de Google, ha expresado su preocupación sobre los riesgos asociados a esta tecnología en una reciente entrevista en el podcast «The Diary of a CEO». Schmidt afirmó que «crear virus mortales con IA es algo muy fácil de hacer», lo que ha generado alarma en el sector tecnológico y político. Según él, hay un equipo trabajando para prevenir estos peligros, pero la amenaza persiste.

Durante años, la IA fue utilizada como una herramienta de apoyo, pero los modelos actuales pueden llevar a cabo tareas complejas que antes eran exclusivas de los humanos. Schmidt advierte que estos modelos pueden realizar ataques de día cero con una eficacia comparable o superior a la de los humanos. Esta situación plantea un dilema ético y de seguridad, similar al que se vivió con la energía nuclear, que puede ser utilizada tanto para el bien como para el mal.

El ex CEO de Google también subrayó que el futuro de la IA dependerá de su uso. La misma tecnología que puede ser utilizada para crear virus letales también tiene el potencial de revolucionar la medicina. Schmidt plantea la necesidad de un médico de IA que asista a los doctores humanos en la identificación de tratamientos adecuados para los pacientes.

En el ámbito geopolítico, Schmidt advirtió que China está avanzando rápidamente en el desarrollo de IA, aunque aún podría estar uno o dos años detrás de Occidente. Sin embargo, su modelo reflejará un «sesgo fundamental contra la libertad de expresión», lo que representa un reto para las democracias occidentales que buscan equilibrar innovación y derechos fundamentales.

La Unión Europea está trabajando en una estrategia de IA centrada en la excelencia y la confianza, con el objetivo de convertirse en un centro mundial de referencia. Sin embargo, Schmidt reconoce que la IA también traerá consigo dislocaciones laborales, aunque no necesariamente una destrucción masiva de empleos. En su opinión, la clave será la cooperación internacional y la creación de mecanismos de control similares a los de la energía nuclear.

¿SEREMOS CAPACES DE UTILIZAR LA IA PARA EL BIEN DE LA HUMANIDAD O CAEREMOS EN LA TENTACIÓN DE CONVERTIRLA EN UN ARMA DE DESTRUCCIÓN MASIVA?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoNieves Segovia: «Hay que pasar de una educación centrada en adquirir contenidos a una que cultive el pensamiento crítico»

La presidenta de SEK Education Group aboga por un cambio educativo ante la inteligencia artificial

ZIP

La presidenta de la Institución Educativa SEK, Nieves Segovia, ha propuesto un cambio profundo en el modelo educativo debido al avance de la inteligencia artificial, durante su conferencia ‘Libertad y educación’ en el ciclo organizado por EL ESPAÑOL y UCJC.

La presidenta de SEK Education Group, Nieves Segovia, ha defendido la necesidad de un cambio radical en el modelo educativo en respuesta al avance de la inteligencia artificial (IA). Durante su conferencia titulada ‘Libertad y educación’, que forma parte del ciclo ‘La libertad en el siglo XXI’, Segovia abordó la importancia de redefinir el papel de la escuela en un mundo donde la tecnología está cada vez más presente. Este evento se llevó a cabo en el marco del décimo aniversario de EL ESPAÑOL y el vigésimo quinto de la Universidad Camilo José Cela (UCJC).

Segovia enfatizó que las instituciones educativas deben adaptarse a un entorno en el que las máquinas gestionan la información, mientras que los humanos deben encargarse de interpretar su significado. En su discurso, destacó que la educación debe centrarse en el cultivo de la sabiduría, en lugar de limitarse a la mera transmisión de conocimientos. La presidenta subrayó la importancia del juicio crítico como un valor esencial para preservar la libertad en un contexto de transformación tecnológica.

Además, Segovia argumentó que la educación debe evolucionar de un enfoque centrado en la adquisición de contenidos a uno que fomente el pensamiento crítico y habilidades no automatizables, como la empatía y la creatividad. Afirmó que el desafío que presenta la IA no es solo técnico, sino filosófico, ya que la tecnología puede tanto abrir oportunidades como agravar desigualdades.

Durante su intervención, Segovia también hizo hincapié en la relevancia de las humanidades en el currículo educativo, sugiriendo que el propósito de la educación debe ser la humanización del ser humano. Asimismo, alertó sobre los desafíos éticos que enfrenta la educación, como la crisis climática y la polarización social.

Finalmente, Segovia abogó por el reconocimiento del papel fundamental del profesorado en el sistema educativo, advirtiendo sobre la erosión de su libertad profesional y la necesidad de proteger su criterio para garantizar una enseñanza autónoma y responsable. En un contexto donde la opinión pública a menudo juzga a los docentes sin fundamento, Segovia defendió que proteger a los educadores es esencial para el bienestar de la sociedad en su conjunto.

¿NO ES IRÓNICO QUE LA SOCIEDAD NO RECONOZCA A QUIENES FORJAN EL FUTURO?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoCientíficos españoles del CSIC han desarrollado una herramienta de inteligencia artificial que predice nuevas funciones desconocidas de las proteínas

Un grupo de científicos españoles desarrolla una herramienta de IA que predice funciones de proteínas desconocidas

ZIP

A partir de secuencias genómicas, un equipo liderado por Rosa Fernández y Ana Rojas ha creado Fantasia, que predice funciones de proteínas ocultas en el proteoma oscuro, analizando cerca de 1.000 genomas con alta precisión.

Un grupo de científicos españoles ha desarrollado una innovadora herramienta de inteligencia artificial llamada Fantasia (Functional ANnoTation based on embedding space SImilArity), que tiene la capacidad de predecir funciones de proteínas desconocidas a partir de secuencias genómicas. Este proyecto ha sido liderado por Rosa Fernández, del Instituto de Biología Evolutiva (IBE) y la Universidad Pompeu Fabra (UPF), junto con Ana Rojas, del Centro Andaluz de Biología del Desarrollo (CABD) y también de la UPF. Ambas investigadoras forman parte de un centro mixto del Consejo Superior de Investigaciones Científicas (CSIC).

La herramienta Fantasia puede analizar un genoma animal completo en cuestión de horas en un ordenador convencional, o en solo 30 minutos en un equipo especializado. Gracias a su capacidad para trabajar con Big Data, ha permitido a los investigadores asignar funciones a 24 millones de genes codificantes de proteínas del proteoma oscuro, analizando cerca de 1.000 genomas animales con una precisión cercana al 100%. Esto es crucial, ya que la mayoría de las proteínas en el proteoma oscuro carecen de homólogos de referencia y permanecen ocultas.

El proteoma es fundamental para entender cómo se sintetizan las proteínas en cualquier organismo. Aunque en humanos se conoce el funcionamiento de entre el 80% y el 90% de las proteínas, en otros mamíferos y en invertebrados, esta cifra es significativamente menor. Este desconocimiento puede llevar a la pérdida de datos esenciales sobre la evolución de las especies y su salud. Hasta ahora, la principal forma de predecir funciones era mediante la comparación con genes similares, un método que limita la exploración de este vasto universo.

La innovadora metodología de Fantasia traduce las secuencias de ADN en fragmentos y los analiza sintácticamente, como si fueran frases. Cada fragmento recibe un valor numérico, lo que permite al sistema construir una gramática para anticipar lo que falta, similar a un procesador de texto. Este enfoque permite a la IA aprender de miles de ejemplos ya estudiados, identificando funciones de proteínas y su papel en procesos biológicos.

La estudiante de doctorado del IBE, Gemma Martínez Redondo, destaca que Fantasia es un software abierto y fácil de usar, accesible incluso para usuarios sin experiencia en programación. Incluye modelos ya entrenados y se adhiere a los principios de sostenibilidad, permitiendo su uso sin necesidad de superordenadores.

¿Y SI LA SOLUCIÓN A NUESTROS MISTERIOS PROTEICOS ESTUVIERA EN UNA SIMPLE HUELLA DIGITAL MATEMÁTICA?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA, Sin categoría

iconoEl congreso Smart City reúne a 850 ciudades con el foco puesto en la IA

El Smart City Expo World Congress abre sus puertas en Barcelona

ZIP

A partir de hoy, el Smart City Expo World Congress se celebra en Barcelona, reuniendo a 850 ciudades y 1.100 expositores. Se espera la asistencia de 25.000 visitantes, centrados en la inteligencia artificial y la sostenibilidad urbana hasta el 6 de noviembre.

El Smart City Expo World Congress (SCEWC) ha comenzado este martes en Barcelona, marcando su decimocuarta edición en la Fira Gran Vía, donde se desarrollará hasta el 6 de noviembre. Este evento reúne a gobiernos locales de 850 ciudades de todo el mundo, empresas tecnológicas e instituciones, con un enfoque en diseñar las ciudades del futuro utilizando inteligencia artificial. Este año, se espera la participación de alrededor de 25.000 visitantes interesados en temas como energías verdes, movilidad sostenible y gestión eficiente de residuos.

El congreso ha organizado un total de 600 charlas que abordan no solo la inteligencia artificial, sino también el futuro de las infraestructuras de las ciudades inteligentes, la economía azul, políticas de vivienda innovadoras, inclusión y gobernanza. Entre los expositores se encuentran grandes nombres como Microsoft, Nvidia y Google, así como auditoras como KPMG y Deloitte, y representantes de países como Francia, Argentina y China.

El lema del congreso, «The Time for the Cities», pone de relieve la importancia de la inteligencia artificial en la gestión urbana. Un nuevo espacio llamado «AI-enabled cities» permite a los asistentes aprender de empresas líderes sobre cómo la IA puede transformar proyectos urbanos. Ejemplos destacados incluyen propuestas de Ipsotek (Eviden) para la supervisión automática de la seguridad a través de imágenes en tiempo real y de Dell Technologies y Nvidia para integrar datos municipales en plataformas de inteligencia artificial.

Además, el Consorcio de la Zona Franca de Barcelona (CZFB) ha presentado la ampliación del DFactory Barcelona, que pasará de 17.000 a 60.000 metros cuadrados para finales de 2026, con el objetivo de atraer talento y empresas sostenibles. El SCEWC también alberga congresos paralelos sobre movilidad, construcción y economía azul, así como los World Smart City Awards, que reconocen las iniciativas más destacadas en innovación urbana, con 462 candidaturas de 65 países.

¿QUIÉN DIJO QUE LA INNOVACIÓN NO PUEDE SER UN JUEGO DE NIÑOS?

Scroll al inicio
Verificado por MonsterInsights