Nombre del autor:Tomas Cascante

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoDe preguntar a Google a recurrir al ChatGPT: la IA, el nuevo intruso en las consultas médicas

De preguntar a Google a recurrir a ChatGPT: la IA, el nuevo intruso en las consultas médicas

De preguntar a Google a recurrir a ChatGPT: la IA, el nuevo intruso en las consultas médicas

ZIP

El uso de inteligencia artificial en salud crece en España, con un 66% de la población consultando chatbots. Expertos advierten sobre riesgos de autodiagnóstico, especialmente entre jóvenes, y la necesidad de complementar con atención médica profesional.

La inteligencia artificial (IA) ha transformado la forma en que las personas buscan información sobre su salud. Según un estudio de Línea Directa, el 66% de los españoles utiliza esta tecnología para consultar problemas de salud. Este cambio refleja un aumento significativo en la dependencia de herramientas digitales para el autodiagnóstico, lo que plantea preocupaciones entre los profesionales de la salud. Jaime Bona, médico de familia y coordinador del grupo de trabajo de Inteligencia Artificial y Salud Digital de la semFYC, señala que el uso de tecnologías emergentes por parte de los pacientes ha aumentado notablemente.
Los jóvenes son los más propensos a recurrir a chatbots de IA, con un 90% de los adolescentes entre 16 y 19 años utilizándolos para informarse sobre su salud. Sin embargo, esta tendencia también ha generado un aumento en los autodiagnósticos erróneos, lo que puede llevar a consecuencias graves. Víctor Pedrera Carbonell, presidente de CESM, advierte que muchos pacientes llegan a las consultas con diagnósticos incorrectos basados en la información obtenida de estos sistemas.
El estudio también revela que un 24,8% de los españoles utiliza el autodiagnóstico digital como primera opción, cifra que se eleva al 41,8% entre los jóvenes. Esto plantea un desafío para los médicos, quienes deben adaptarse a esta nueva realidad y educar a los pacientes sobre los riesgos asociados con el uso de la IA en salud.
A pesar de los beneficios potenciales, como la inmediatez y la disponibilidad de información, los expertos advierten que la IA no debe sustituir la atención médica tradicional. La falta de contexto clínico y la posibilidad de respuestas sesgadas son limitaciones significativas. Jaime Bona destaca que, aunque la IA puede complementar la atención médica, no debe ser vista como un sustituto de la valoración médica profesional.
En el futuro, se espera que la IA evolucione y se convierta en una herramienta más fiable, capaz de ofrecer información clara y accesible sobre salud. Sin embargo, hasta que esto ocurra, es crucial que los usuarios sean conscientes de las limitaciones de estas tecnologías y busquen atención médica cuando sea necesario.

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL ES LA RESPUESTA A TODOS NUESTROS PROBLEMAS DE SALUD?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoTu empleo, ¿en poder de un algoritmo? los recursos humanos ya usan la IA para contratar y despedir

Yolanda Díaz advierte a las grandes tecnológicas sobre el uso del control algorítmico

ZIP

La vicepresidenta Yolanda Díaz alerta a empresas como Amazon sobre el control algorítmico en el trabajo. Anuncia vigilancia de la Inspección y un ERE que afectará a 1.200 empleados, planteando desafíos éticos en el uso de la IA.

La vicepresidenta segunda del Gobierno español, Yolanda Díaz, ha lanzado una advertencia contundente a las grandes tecnológicas, incluyendo a Uber, Cabify y Amazon, sobre el uso del control algorítmico en el ámbito laboral. En un contexto donde la inteligencia artificial (IA) está transformando la manera en que se gestionan los recursos humanos, Díaz ha enfatizado la necesidad de regular adecuadamente estas prácticas para proteger los derechos de los trabajadores. Su declaración se produce tras el anuncio de un Expediente de Regulación de Empleo (ERE) en Amazon, que afectará a 1.200 empleados, lo que ha encendido las alarmas sobre el uso de la IA en la toma de decisiones laborales.
El uso de sistemas algorítmicos para gestionar la productividad y el rendimiento de los empleados ha crecido exponencialmente, especialmente en empresas de gran tamaño como Microsoft y Amazon. Estos algoritmos no solo optimizan procesos de selección y reclutamiento, sino que también se utilizan para controlar el desempeño y, en algunos casos, para despedir a trabajadores. Este cambio ha suscitado preocupaciones sobre la ética y la privacidad, ya que los algoritmos pueden perpetuar sesgos y afectar la calidad del empleo.
Francisco Aranda, presidente de la patronal logística UNO, ha defendido el uso de algoritmos, argumentando que mejoran la productividad y permiten decisiones más objetivas. Sin embargo, también ha reconocido la necesidad de regular su uso en la negociación colectiva para garantizar que no se vulneren los derechos de los trabajadores. Por su parte, Cristina Orejas, directora del área jurídico laboral de Grant Thornton España, ha subrayado la importancia de establecer un marco jurídico claro para el uso de la IA en las organizaciones, que respete los derechos fundamentales de los empleados.
En Europa, el Reglamento Europeo de Inteligencia Artificial, que se espera esté completamente desarrollado el próximo año, establece normas sobre el uso de la IA en ámbitos considerados de alto riesgo, incluido el laboral. En España, el Estatuto de los Trabajadores exige que las empresas informen a los comités de empresa sobre los parámetros que rigen los algoritmos que afectan a las condiciones laborales. La Ley Orgánica de Protección de Datos también regula el uso de dispositivos digitales en el trabajo, lo que añade otra capa de protección para los derechos de los trabajadores.
La incorporación de la IA en la gestión laboral presenta tanto oportunidades como riesgos. Si bien puede mejorar la eficiencia y la toma de decisiones, también plantea desafíos éticos que deben ser abordados de manera proactiva. La clave está en encontrar un equilibrio entre la automatización y la intervención humana, asegurando que la tecnología complemente la capacidad crítica de las personas en el entorno laboral.

¿QUIÉN DIJO QUE LAS MÁQUINAS PUEDEN HACER TODO MEJOR QUE LOS HUMANOS?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoOla de despidos en las grandes telecos: Telefónica, Verizon o BT sacrifican empleo para ser más ágiles en la era de la IA

Ola de despidos en las grandes telecos: Telefónica, Verizon o BT sacrifican empleo para ser más ágiles en la era de la IA

ZIP

A partir de 2025, grandes empresas de telecomunicaciones como Telefónica, Verizon, BCE y BT implementarán miles de despidos para adaptarse a la transformación del sector, impulsada por la inteligencia artificial y la digitalización.

Las grandes empresas de telecomunicaciones están enfrentando una transformación significativa en sus estructuras operativas, lo que ha llevado a la decisión de implementar despidos masivos en 2025. Compañías como Telefónica, que ha anunciado un expediente de regulación de empleo (ERE) que afectará a 6.088 empleados en España, se encuentran en la vanguardia de esta tendencia. Este ajuste se justifica por la necesidad de reducir costos y adaptarse a un entorno de ingresos estancados y creciente competencia. La inteligencia artificial (IA) y la digitalización son citadas como factores clave que están impulsando esta reestructuración.
Por su parte, Verizon ha decidido llevar a cabo el mayor recorte de plantilla en su historia, despidiendo a aproximadamente 13.000 trabajadores. Esta decisión, anunciada por su nuevo consejero delegado, Dan Schulman, busca simplificar las operaciones de la compañía y mejorar su agilidad en un mercado cada vez más competitivo. BCE, la principal empresa de telecomunicaciones de Canadá, también ha anunciado el despido de 690 empleados como parte de un plan más amplio para ahorrar 1.500 millones de dólares canadienses.
En Europa, BT ha reducido su plantilla en un 6% entre abril y septiembre de 2025, eliminando más de 5.000 empleos en el marco de un plan que busca prescindir de hasta 55.000 trabajadores antes de 2030. Este esfuerzo está diseñado para hacer de BT una empresa más ágil y eficiente, reduciendo su base de costos en torno a 3.000 millones de libras anuales.
Los sindicatos han expresado su preocupación por la falta de proyectos ambiciosos que aprovechen el potencial de la IA para desarrollar nuevas líneas de negocio y mantener empleos de alto valor. A medida que las telecos se enfrentan a presiones de costos y estancamiento de ingresos, la necesidad de adaptarse a la revolución digital se vuelve cada vez más urgente.
¿NO SERÁ QUE LA INTELIGENCIA ARTIFICIAL NO SOLO ESTÁ TRANSFORMANDO LAS TELECOMUNICACIONES, SINO TAMBIÉN EL FUTURO DEL EMPLEO?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

icono«Nuestro universo no puede ser una simulación»: por qué no vivimos en Matrix y es imposible que llegue a existir

“Nuestro universo no puede ser una simulación”: por qué no vivimos en Matrix y es imposible que llegue a existir

ZIP

A un 50% de probabilidades, la hipótesis de la simulación plantea que nuestra realidad es un producto informático. Sin embargo, un estudio de la University of British Columbia, liderado por el físico Mir Faizal, demuestra que esto es imposible por fundamentos matemáticos.

La idea de que vivimos en una simulación ha sido un tema recurrente en la filosofía y la ciencia, especialmente desde que el filósofo sueco Nick Bostrom planteó su famosa hipótesis en 2003. Según Bostrom, hay al menos un 50% de probabilidades de que una civilización avanzada haya creado un sistema informático que simule nuestra realidad. Esta noción ha sido popularizada por películas como Matrix, donde los personajes deben elegir entre la realidad y una ilusión. Sin embargo, un reciente estudio de la University of British Columbia (UBCO) ha puesto en duda esta idea, argumentando que no es posible que nuestro universo sea una simulación.

El autor principal del estudio, el físico y matemático Mir Faizal, sostiene que «nuestro universo no puede ser una simulación o el producto de la computación ciega». Según Faizal, los axiomas fundamentales de la gravedad cuántica llevan a afirmaciones que no pueden ser derivadas de ningún procedimiento lógico o computacional. Esto implica que la base de nuestra realidad no puede ser replicada por un sistema informático, sin importar cuán avanzado sea.

El estudio se apoya en el teorema de incompletitud de Gödel, que establece que hay verdades que no pueden ser probadas ni replicadas mediante algoritmos. Faizal utiliza el idioma como una analogía: aunque se puedan construir frases gramaticalmente correctas en chino sin entender su significado, esto demuestra que la comprensión es diferente de la computación. Así, la estructura más profunda de la realidad no se basa en el espacio-tiempo, sino en una «información primordial» que no puede ser procesada por ninguna máquina.

Además, el estudio refuta las afirmaciones de otros investigadores, como el físico Melvin Vopson, quien ha propuesto que todo lo que percibimos es parte de un software complejo. Vopson incluso ha formulado una Segunda Ley de la Infodinámica, sugiriendo que la hipótesis de la simulación es cierta. Sin embargo, Faizal y su equipo rechazan esta idea, afirmando que la realidad es más compleja y no puede ser reducida a parámetros computacionales.

En conclusión, aunque la hipótesis de la simulación ha enriquecido el debate sobre los límites del conocimiento humano, el estudio de la UBCO sugiere que la realidad es aún más profunda y escurridiza que cualquier código que se pueda programar. ¿QUIÉN DIJO QUE LA REALIDAD NO ES UNA PELÍCULA DE CIENCIA FICCIÓN?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

icono¿La IA diagnostica con mayor precisión que los médicos, como afirma la consellera de Salut?  Olga Pané

Olga Pané dijo que Catalunya tardará en tener más profesionales sanitarios y que la IA va a ayudar porque “diagnostica con una precisión igual o superior”

La implementación de la inteligencia artificial (IA) en el sistema de salud ha generado un intenso debate sobre su efectividad y su papel en la atención médica. Durante la firma de un convenio con el Gobierno, la consellera de Salut de Catalunya, Olga Pané, afirmó que la IA puede diagnosticar con una precisión igual o superior a la de los profesionales sanitarios. Esta declaración, sin embargo, provocó la indignación del sector sanitario, que teme que se promueva la idea de que los médicos son sustituibles por estas herramientas tecnológicas. El sindicato Metges de Catalunya exigió una rectificación, argumentando que la intervención de Pané podría malinterpretarse.
Varios estudios respaldan la afirmación de que la IA puede ser efectiva en diagnósticos médicos específicos, especialmente en el análisis de imágenes. Sin embargo, no puede reemplazar la atención del personal sanitario, como indican informes de la OMS y la OCDE. Un estudio reciente publicado en la revista Nature reveló que la precisión diagnóstica de los modelos de IA es del 52,1%, aunque su rendimiento fue inferior al de médicos especialistas.
El convenio firmado el 13 de noviembre entre la Generalitat y el Estado contempla una inversión de 27 millones de euros para modernizar el sistema sanitario catalán mediante nuevas tecnologías. Esto incluye herramientas de IA que pueden ayudar en tareas específicas, pero no reemplazarán la experiencia y el juicio clínico de los médicos. La presidenta del Col·legi de Metges de BarcelonaElvira Bisbe, enfatizó que la IA puede ser un apoyo, pero no puede sustituir la atención humana.
A pesar de los beneficios potenciales de la IA, como la reducción de la carga de trabajo y el tiempo de diagnóstico, es crucial que estas herramientas se desarrollen con la participación de profesionales médicos. En España, se estima un déficit de 5.000 médicos especializados, lo que subraya la necesidad de mantener a los profesionales en el centro de la atención sanitaria.

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoCómo usar ChatGPT (y otros LLM) con una API y pagar solo lo que consumes | WIRED

Cómo usar la IA generativa a través de una API

ZIP

La IA generativa permite automatizar tareas complejas sin necesidad de suscripciones. Usando una API, como la de OpenAI, los usuarios pueden acceder a modelos avanzados y pagar solo por lo que consumen, facilitando su integración en aplicaciones cotidianas.

La inteligencia artificial (IA) generativa ha revolucionado la forma en que interactuamos con la tecnología, permitiendo a los usuarios realizar tareas complejas de manera más eficiente. Este artículo se centra en cómo utilizar la IA generativa a través de una API (Interfaz de Programación de Aplicaciones), lo que permite a los usuarios acceder a modelos avanzados sin necesidad de una suscripción costosa. En lugar de pagar una tarifa mensual fija, los usuarios pueden optar por un modelo de pago por uso, lo que resulta más económico para aquellos que no requieren un acceso constante a la tecnología.

Una API actúa como un intermediario que permite a diferentes programas comunicarse entre sí. Por ejemplo, al utilizar Google Docs, un usuario puede enviar una solicitud a OpenAI para que la IA genere sugerencias de texto sin salir de la aplicación. Este enfoque simplifica el proceso de integración de la IA en el flujo de trabajo diario, permitiendo a los usuarios aprovechar sus capacidades sin complicaciones técnicas.

Para comenzar a utilizar la API de OpenAI, es necesario obtener una clave API, que permite autenticar las solicitudes. Una vez que se tiene la clave, se pueden explorar diferentes métodos para interactuar con la API, desde complementos en programas de uso común hasta plataformas de automatización sin código. Estas herramientas permiten a los usuarios automatizar tareas, como la transcripción de reuniones, y obtener resúmenes de manera rápida y eficiente.

Sin embargo, es crucial tener en cuenta las recomendaciones de seguridad al utilizar complementos y APIs, ya que se está compartiendo información sensible. La elección de la herramienta adecuada dependerá de las necesidades específicas de cada usuario y del contexto en el que se desee aplicar la IA generativa.

A medida que la tecnología avanza, la IA generativa se convierte en una herramienta cada vez más accesible y útil para una amplia gama de aplicaciones. Desde la automatización de tareas cotidianas hasta la mejora de la productividad en entornos laborales, su potencial es inmenso.

¿QUIÉN DIJO QUE LA TECNOLOGÍA NO PUEDE HACER NUESTRAS VIDAS MÁS FÁCILES?

Fuente: es.wired.com | https://es.wired.com/articulos/como-usar-chatgpt-u-otros-llm-con-una-api-y-pagar-solo-lo-que-consumes

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoUna experta afirma que la verdadera amenaza tecnológica en el aula ha estado frente a nosotros durante años, y no es la IA

Los ordenadores están cada vez más presentes en las aulas de Secundaria y con ellos los chatbots de IA como Gemini o ChatGPT

ZIP

La creciente presencia de ordenadores en las aulas de Secundaria, junto a chatbots como Gemini y ChatGPT, ha generado preocupaciones sobre su impacto en el aprendizaje, evidenciando distracciones y disminución en la concentración de los estudiantes.

Durante las últimas décadas, la tecnología ha transformado las aulas, desde las primeras salas de informática de los años noventa hasta la actual adopción masiva de portátiles y herramientas en línea. Sin embargo, esta evolución no ha garantizado mejoras en el aprendizaje. Investigaciones recientes sugieren que el uso indiscriminado de dispositivos tecnológicos puede estar deteriorando la educación en lugar de beneficiarla. La psicóloga Jean M. Twenge ha señalado que la decisión de proporcionar a cada estudiante su propio dispositivo, inicialmente vista como un avance, ha resultado contraproducente.
Los datos internacionales respaldan esta afirmación, mostrando que los jóvenes de 15 años han alcanzado mínimos históricos en matemáticas, lectura y ciencias en países que tradicionalmente lideraban los rankings educativos, como Finlandia. Los estudiantes finlandeses admiten pasar alrededor de 90 minutos diarios distraídos con sus dispositivos durante la jornada escolar. En contraste, Japón mantiene un rendimiento estable con solo 30 minutos dedicados al ocio digital en clase.
Los ordenadores, aunque diseñados como herramientas de aprendizaje, presentan un potencial distractor similar al de los teléfonos inteligentes, pero con una legitimidad institucional que los hace aún más problemáticos. Muchas escuelas fomentan o exigen su uso continuo, lo que agrava la situación. Un estudio de 2016 en la Universidad Estatal de Michigan reveló que los estudiantes pasaban el 40% del tiempo en clase navegando en redes sociales o viendo videos, en lugar de concentrarse en el contenido académico. Además, un metaanálisis de 24 investigaciones de 2018 mostró que los estudiantes que toman notas en ordenador tienen un 75% más de probabilidades de suspender en comparación con aquellos que escriben a mano.
La investigadora Twenge no aboga por un rechazo total de la tecnología, sino por una re-evaluación de su rol en la educación. Propone establecer límites claros y objetivos definidos para que las herramientas digitales sean aliadas en el aprendizaje, evitando que su uso indiscriminado se convierta en un lastre para la generación actual de estudiantes.

¿QUIÉN DIJO QUE LA TECNOLOGÍA SIEMPRE ES LA RESPUESTA?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoLos escritores de novelas pueden tener los días contados y lo saben: más de la mitad cree que la IA los va a reemplazar

Encontrar el modo de garantizar la calidad de los libros que se ponen a la venta

ZIP

A medida que la inteligencia artificial avanza, los novelistas británicos enfrentan un futuro incierto. Un informe de la Universidad de Cambridge destaca que la IA podría desestabilizar la industria editorial del Reino Unido, que genera 11.000 millones de libras anuales.

La precisión sintáctica y la coherencia semántica son los factores que aún permiten distinguir los textos creados por una persona de los que genera una de las muchas inteligencias artificiales. Aunque las estructuras narrativas de los algoritmos han alcanzado un nivel de sofisticación notable, las repeticiones de patrones, la neutralidad de tono y ciertos desajustes en el ritmo del lenguaje delatan su origen automatizado, algo que solo detectan quienes analizan la escritura con detalle.

Esta frontera cada vez más difusa entre el texto humano y el artificial ha reabierto el debate sobre la autoría literaria y la supervivencia de la creación individual en un entorno dominado por sistemas de generación automática. En ese contexto, la comunidad de novelistas británicos se enfrenta a un escenario incierto que ha sido analizado recientemente por investigadores de la Universidad de Cambridge.

Los especialistas del Centro Minderoo para la Tecnología y la Democracia advierten de que la irrupción de la inteligencia artificial puede desestabilizar la base económica de una industria editorial que aporta cada año 11.000 millones de libras a la economía del Reino Unido. El informe subraya que el país es el mayor exportador de libros del mundo y alerta de que el uso de obras literarias sin consentimiento para entrenar algoritmos supone un riesgo no solo ético, sino también financiero.

La falta de transparencia de las empresas tecnológicas y la ausencia de un sistema de remuneración justa podrían alterar un equilibrio construido durante décadas, según concluye el documento. El estudio detalla que los autores de ficción son los más vulnerables ante la expansión de la IA, en especial quienes se dedican a la novela romántica, seguidos de los escritores de thrillers y de novela negra.

Los encuestados reconocen que las herramientas de inteligencia artificial ya se integran en su proceso creativo y un tercio de ellos admite haberlas utilizado para redactar. Pese a la inquietud general, una amplia mayoría considera que esta tecnología también puede ofrecer beneficios sociales, lo que refleja una postura ambivalente ante un fenómeno que les supone una amenaza, pero también oportunidad.

La investigación, dirigida por la doctora Clementine Collett, se basa en una encuesta a 258 novelistas de ficción que publicaron este año y a 74 profesionales del sector literario. Según explicó Collett, “existe una preocupación generalizada entre los novelistas de que la IA generativa entrenada con grandes cantidades de ficción socave el valor de la escritura y compita con los novelistas humanos”.

En la misma línea, añadió que “muchos novelistas tenían dudas sobre si durante los próximos años habría interés por la escritura compleja y de larga extensión”. Su análisis identifica un sentimiento de vulnerabilidad y la percepción de que la creatividad humana se enfrenta a un competidor cada vez más eficiente.

El informe concluye que la pérdida de originalidad provocada por el uso de herramientas automáticas podría reducir la confianza de los lectores, dañar la reputación de los autores y afectar a las ventas. La doctora Collett advierte de que las novelas son un pilar de las industrias culturales y una fuente esencial para otros formatos narrativos como el cine o los videojuegos, de modo que cualquier deterioro en su valoración social tendría consecuencias mucho más amplias.

¿QUIÉN DIJO QUE LA CREATIVIDAD HUMANA NO TIENE COMPETENCIA?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoLa IA ya puede atacar sin ayuda humana: China lanza el primer ciberataque mundial autónomo

El primer ciberataque autónomo marca un antes y un después: la IA ya puede actuar sin supervisión humana

ZIP

Un informe de Anthropic revela el primer ciberataque a gran escala ejecutado por inteligencia artificial sin intervención humana, afectando a una treintena de objetivos globales. Este ataque, realizado en septiembre, fue altamente sofisticado y preocupante.

La inteligencia artificial (IA) ha avanzado a pasos agigantados, y un reciente informe de Anthropic, una compañía fundada por exmiembros de OpenAI, ha revelado un hecho alarmante: se ha detectado el primer ciberataque a gran escala ejecutado de forma autónoma por una IA. Este ataque, que se produjo en septiembre, fue dirigido a un grupo apoyado por China y se caracterizó por su sofisticación y capacidad de infiltración en una treintena de objetivos en todo el mundo.

Según el informe, la IA no solo guió a los atacantes, sino que ejecutó los ciberataques en más del 90% de los casos, limitando la intervención humana a un 4-6% en las decisiones más críticas. Este cambio de paradigma en la ciberdelincuencia representa una escalada preocupante, ya que hasta ahora la piratería dependía mayormente de la intervención humana.

Los atacantes emplearon una estrategia ingeniosa para llevar a cabo su plan. Dividieron las acciones más complejas en tareas menores e inofensivas, evitando así activar los mecanismos de defensa. Para lograr esto, indujeron a la IA, en este caso Claude, a creer que estaba trabajando para un empleado legítimo de ciberseguridad, lo que le permitió recopilar contraseñas, procesar datos y elaborar programas de espionaje y sabotaje bajo un engaño.

El informe de Google señala que los principales responsables de estas nuevas formas de ciberdelincuencia se concentran en países como China, Rusia e Irán, que buscan maximizar el potencial de la IA en diversos ámbitos. Sin embargo, es crucial destacar que el problema no radica en la IA en sí, sino en cómo los humanos la utilizan. La IA no es inherentemente maligna; somos nosotros quienes le damos las directrices para llevar a cabo acciones maliciosas.

¿QUIÉNES SON LOS VERDADEROS CULPABLES EN ESTA NUEVA ERA DE CIBERDELINCUENCIA?

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO

iconoUna flota de robots con IA descubren bajo el océano una masa biológica que pesa como 3 millones de ballenas azules

Un equipo canadiense descubre una colosal masa de fitoplancton en el océano profundo gracias a la inteligencia artificial

ZIP

Un equipo canadiense ha cuantificado una gigantesca masa de fitoplancton en el océano profundo, equivalente al peso de tres millones de ballenas azules. Este hallazgo, realizado con inteligencia artificial, redefine el papel de los microorganismos marinos en el equilibrio planetario.

En el fondo marino siguen apareciendo cosas increíbles, pero lo que acaban de encontrar los científicos en el océano sería impensable sin el uso de inteligencia artificial (IA). Gracias a una red de robots submarinos con inteligencia artificial, un equipo canadiense ha podido cuantificar una gigantesca masa biológica oculta en el océano profundo. Este hallazgo es de fitoplancton, una biomasa tan colosal que su peso equivale al de tres millones de ballenas azules, lo que obliga a revisar el papel real de los microorganismos marinos en el equilibrio del planeta. El trabajo se ha basado en los datos publicados en el estudio Carbon-centric dynamics of Earth’s marine phytoplankton.

Los resultados obtenidos apuntan a la existencia de unas 346 millones de toneladas de fitoplancton distribuidas en la columna de agua oceánica, muchas de ellas en zonas que hasta ahora escapaban a la observación directa. Traducido a una escala más comprensible, esa cantidad de biomasa equivale al peso de unos tres millones de ballenas azules, los animales más grandes que han existido en la Tierra.

El fitoplancton está formado por organismos microscópicos que flotan en el agua y constituyen la base de toda la cadena alimentaria marina. Además, desempeñan una función clave en la regulación del clima, ya que participan en la producción de oxígeno y en la captura de dióxido de carbono mediante la fotosíntesis. Uno de los grandes problemas históricos era que los satélites sólo podían observar lo que ocurría en la capa más superficial del océano. Por lo que gran parte de la actividad biológica quedaba fuera de su alcance, especialmente en las capas medias y profundas.

Gracias a esta nueva tecnología, ha sido posible cubrir ese vacío y obtener una visión mucho más completa del volumen real de fitoplancton que existe en el planeta. La investigación se ha apoyado en una flota de 903 flotadores autónomos integrados en la red internacional BGC-Argo (Biogeochemical-Argo). Estos robots descienden de forma periódica a varios cientos de metros de profundidad, y recorren verticalmente la columna de agua para recoger datos físicos y biogeoquímicos.

Algunos creen que la IA sólo sirve para que los niños copien en el colegio, pero estudios de este tipo demuestran su poder. Además, cada dispositivo incorporaba sensores capaces de medir aspectos clave. Estos parámetros permiten calcular el estado del ecosistema marino, su productividad biológica y cómo varía la actividad del fitoplancton según la profundidad, la latitud o la disponibilidad de nutrientes.

La integración de inteligencia artificial en estos sistemas ayuda a optimizar la recogida de datos y a interpretar grandes volúmenes de información en tiempo real, incluso en zonas remotas donde no existe presencia humana constante. Es precisamente esta red robótica la que ha permitido detectar patrones, que hasta ahora permanecían ocultos bajo la superficie del océano.

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO PUEDE HACER DESCUBRIMIENTOS ASOMBROSOS?

Scroll al inicio
Verificado por MonsterInsights