5 de junio de 2024

0000 NOTICIA VISIBLE, 0020 NOTICIAS- IA

iconoRoman Yampolskiy dice que la probabilidad de que la IA acabe con la humanidad es del 99,9%: por qué lleva la contraria al resto de investigadores

Roman Yampolskiy, investigador en IA, estima que la probabilidad de que esta tecnología provoque la extinción humana es del 99,9%. Mientras que otros expertos calculan riesgos menores, Yampolskiy argumenta que ningún modelo de IA ha sido completamente seguro y que los futuros modelos probablemente tampoco lo serán.

Roman Yampolskiy, investigador especializado en inteligencia artificial, ha calculado que la probabilidad de que esta tecnología conduzca a la extinción humana ronda el 99,9%. Según Yampolskiy, hasta ahora ningún modelo de IA ha sido seguro y es poco probable que los futuros modelos estén libres de errores. Otros investigadores han sido más moderados en sus estimaciones.

El presentador de podcast Lex Fridman ha asegurado recientemente en un episodio de su programa que la mayoría de ingenieros de inteligencia artificial con los que habla calculan que existen entre un 1% y un 20% de posibilidades de que la IA general (AGI) acabe exterminando a los seres humanos. La predicción varía en función de cómo y a quién se le pregunte. Por ejemplo, un estudio reciente realizado con 2.700 investigadores especializados en inteligencia artificial concluía que solo existen un 5% de probabilidades de que la IA conduzca a la extinción de la especie humana.

Sin embargo, Fridman defiende que también es importante hablar con las personas que estiman que la probabilidad de que la inteligencia artificial acabe con la humanidad es mucho mayor. Ese sería el caso del investigador Roman Yampolskiy, que declaraba al periodista en una entrevista publicada este domingo que la probabilidad en los próximos 100 años es del 99,9%.

Yampolskiy da clases de Informática en la Universidad de Louisville, en Estados Unidos, y ha publicado un libro este año titulado AI: Unexplainable, Unpredictable, Uncontrollable («IA: inexplicable, impredecible, incontrolable»). En su entrevista con Fridman, este investigador ha hablado durante más de dos horas de los riesgos que plantea la inteligencia artificial y sus previsiones han sido bastante poco halagüeñas.

Yampolskiy ha adelantado que las posibilidades de que la IA acabe con el ser humano dependen de si las personas pueden desarrollar software de alta complejidad sin fallos en los próximos 100 años. Ha señalado que eso es poco probable, ya que ningún modelo de inteligencia artificial ha estado completamente a salvo de los intentos de hacer que la tecnología haga algo para lo que no fue diseñada. «Ya han cometido errores», ha afirmado el investigador. «Hemos tenido accidentes, les han hecho jailbreak. No creo que exista hoy en día un solo gran modelo lingüístico al que nadie haya conseguido hacer algo que los desarrolladores no pretendían que hiciese».

Las primeras versiones de los modelos de IA en los últimos dos años han levantado sospechas por su potencial para hacer el mal o para difundir desinformación. Los deepfakes han sido utilizados para crear contenido pornográfico de personas famosas como Taylor Swift o han amenazado con influir en las elecciones estadounidenses con llamadas de ciberdelincuentes que decían ser el presidente Joe Biden.

Yampolskiy ha expresado que, para controlar a la inteligencia artificial, se necesita una máquina de seguridad perpetua. El investigador ha indicado que, incluso si se hace un buen trabajo con las próximas versiones de GPT, la IA va a seguir mejorando, aprendiendo, modificándose e interactuando con diferentes agentes… Y, con los riesgos existenciales, «solo tienes una oportunidad».

El CEO de OpenAI (la desarrolladora de ChatGPT), Sam Altman, ha propuesto la creación de un «sandbox regulatorio», una iniciativa que ya se había estudiado por parte del Gobierno de España en la que la gente experimente con la inteligencia artificial y la regule basándose en lo que «salió realmente mal» y lo que ha salido «realmente bien». Altman advirtió una vez —quizá estaba bromeando— en el 2015 que «lo más probable es que la IA conduzca al fin del mundo, pero mientras tanto, habrá grandes empresas».

Noticia elaborada a partir del artículo original publicado en Business Insider

0000 NOTICIA VISIBLE, 0020 NOTICIAS- IA

iconoLa Siri IA que esperamos no llegará hasta 2025

La esperada versión de Siri con Inteligencia Artificial no estará disponible hasta 2025, aunque Apple mostrará avances en la WWDC. Las mejoras incluyen apertura de documentos, mover notas y resumir artículos. Estas funciones de IA requerirán iPhone 15 Pro o posterior, y procesadores M1 para iPadOS 18 y macOS 15.

A pocos días del evento de desarrolladores de Apple, las expectativas sobre el protagonismo de la IA en iOS 18 son altas. Una de las grandes incógnitas es qué mejoras integrará Siri con la fusión de tecnologías de OpenAI, Google y Apple. Sin embargo, según MacRumors, las novedades sustanciales de Siri no se verán hasta 2025, con una futura actualización de iOS 18.

Entre las mejoras esperadas, Siri podrá abrir documentos específicos, mover notas entre carpetas, eliminar correos y resumir artículos, entre otras funciones. Inicialmente, Siri responderá a un comando a la vez, lo que podría ser una limitación significativa. Además, estas nuevas funcionalidades de IA necesitarán un iPhone 15 Pro o posterior y procesadores M1 o superiores para funcionar en iPadOS 18 y macOS 15. Las tareas básicas de IA se procesarán en el dispositivo, mientras que las más complejas dependerán de los servidores en la nube de Apple.

En iOS 18, Siri ofrecerá respuestas más inteligentes y naturales, control multimedia entre dispositivos y la capacidad de proporcionar un resumen de notificaciones recientes. La integración de la IA en el sistema operativo traerá también respuestas inteligentes, transcripción y resumen, notas matemáticas y predicciones del teclado. Además, una nueva herramienta llamada «Limpiar» reemplazará a la función de «Retoque» de Apple, usando IA generativa para eliminar fondos de fotos.

Una aplicación llamada Generatione Playground permitirá generar imágenes mediante IA en iMessage. También se espera el lanzamiento de visionOS 2, con un modelo de texto predictivo mejorado y una interfaz de usuario de comandos de voz rediseñada. Aunque estas innovaciones no estarán disponibles de inmediato, marcan el camino hacia un futuro más inteligente para los dispositivos de Apple.

Noticia elaborada a partir del artículo original publicado en iSenaCode

0000 NOTICIA VISIBLE, 0020 NOTICIAS- IA

iconoSony, en contra de la industria: va a utilizar IA en sus películas

Sony Pictures ha anunciado que utilizará inteligencia artificial para producir películas de manera más eficiente y reducir costes. Tony Vinciquerra, CEO de Sony, afirmó que la IA será clave en sus futuras producciones. Esta decisión ha generado controversia, ya que actores y directores, como Chris Miller, se oponen firmemente al uso de IA en la industria del cine.

La incansable lucha de la industria del cine por alejar la IA de sus trabajos acaba de sufrir un golpe de efecto. El actual director ejecutivo de Sony Pictures, Tony Vinciquerra, ha estado alabando a la inteligencia artificial en un discurso durante una reunión de inversores de la compañía. De hecho, ha confirmado que Sony utilizará la IA en sus películas dentro de poco.

«Estamos muy centrados en la IA. Buscaremos formas de producir películas para cine y televisión de una manera más eficiente, utilizando principalmente IA», declaró Vinciquerra. Con estas palabras, se convierte en el primer gran instigador de la inteligencia artificial para la industria del cine. El auge de esta tecnología lleva tiempo poniendo en alerta a actores, guionistas, técnicos de efectos especiales y diseñadores 3D, que ven cómo sus labores diarias pueden ser sustituidas por la IA.

Y es que, ese «más eficiente» que comenta Vinciquerra no es casualidad. Sony quiere apostar por la IA con un objetivo claro: abaratar los costes de producción. Según el director de la compañía, el mayor problema a la hora de hacer películas es el gasto, algo en lo que la inteligencia artificial podría ayudar.

La polémica ha tardado poco en servirse. Chris Miller, el director de las películas de animación de Spider-Man, ha confirmado que está totalmente en contra de esta decisión y que no utilizará la IA generativa en sus filmes bajo ningún concepto. «No hay IA generativa en ‘Beyond the Spider-Verse’ y nunca la habrá. Uno de los principales objetivos de estas películas es crear nuevos estilos visuales que nunca se hayan visto en una película de animación, no robar mediocre material genérico plagiado del trabajo de otros artistas», afirmó Miller.

Por el momento, Sony no ha confirmado en qué películas utilizará esta tecnología, y tampoco de qué manera. Echando un vistazo al catálogo de posibilidades de la inteligencia artificial generativa, es posible encontrar muchos, pero que muchos usos. La actual tecnología ya no solo permite redactar guiones con soltura en cuestión de minutos, también existen herramientas como Sora que pueden crear vídeos en segundos basados en una simple descripción. Incluso hay IAs como Stable Video 3D centradas en la creación de objetos tridimensionales con resultados sorprendentes.

Las primeras inclusiones de IA no han sido demasiado buenas, pero este movimiento no se centra exclusivamente en el ahora, sino más bien en lo que ocurrirá de aquí a unos años. De hecho, Sony sabe que el año pasado la industria del cine sufrió huelgas durante más de ocho meses por culpa de la IA, algo que no parece preocupar a Vinciquerra. Él mismo ha confirmado que el uso de esta tecnología llegará hasta el punto determinado por los acuerdos con los trabajadores. Es decir, que no debería suponer un problema para estos.

Habrá que ver cómo integra Sony la IA en sus películas y cómo afronta el reto de abaratar costes sin afectar al trabajo de los artistas. Este último punto parece, cuanto menos, complicado.

Noticia elaborada a partir del artículo original publicado en Hipertextual

0000 NOTICIA VISIBLE, 0020 NOTICIAS- IA

iconoSuperordenadores gracias a la IA: así son los nuevos portátiles de Asus Vivobook, Zenbook y ProArt

Asus ha presentado en Computex 2024 sus últimos portátiles Vivobook, Zenbook y ProArt con IA de Copilot+ PC. Estos modelos incluyen procesadores avanzados y características como pantallas OLED y conectividad WiFi 7. Destacan por su capacidad de IA y eficiencia, ofreciendo diagnósticos precisos y soporte para estudiantes de medicina.

Asus ha revelado en el evento Computex 2024 sus nuevas líneas de portátiles Vivobook, Zenbook y ProArt, integrando la Inteligencia Artificial de Copilot+ PC. Estos dispositivos destacan por su avanzada tecnología de IA, utilizando una NPU con más de 45 TOPS como motor principal. Según Samson Hu, codirector general de Asus, la compañía busca hacer la IA accesible para todos, destacando las capacidades revolucionarias de estos nuevos productos.

El Vivobook S 15, uno de los modelos presentados, cuenta con un procesador Snapdragon X Elite, una pantalla OLED de 15,6 pulgadas y resolución de 2880 x 1620 píxeles. Su batería ofrece una autonomía de hasta 18 horas, e incorpora la cámara IR AiSense, que detecta la atención del usuario para optimizar el uso de la pantalla. Este modelo estará disponible a partir del 18 de junio, mientras que otros modelos recibirán actualizaciones gratuitas para integrar las nuevas funciones de IA.

El Zenbook S16, otro destacado del evento, está fabricado con ‘Ceraluminium’, un material cerámico híbrido que mejora la resistencia. Este portátil OLED tiene una pantalla de 16 pulgadas con una tasa de refresco de 120 Hz, un procesador AMD Ryzen AI 9 HX 370 y una batería de 78 Wh. Ofrece conectividad WiFi 7, seis altavoces compatibles con Dolby Atmos y un ‘touchpad’ con gestos inteligentes. El Zenbook S 16 ya está disponible por 1.290 euros.

Por su parte, la serie ProArt incluye el ProArt 16 y el portátil convertible ProArt PX13, ambos con procesador AMD Ryzen AI 9 HX 370 y gráficos Nvidia GeForce RTX 4070. Tienen una pantalla OLED de 13 pulgadas y resolución 3K, con un brillo máximo de 500 nits, y una batería de 73 Wh. El ProArt PZ13, otro modelo de la serie, es un portátil desmontable con protección IP52, procesador Snapdragon y pantalla OLED de 13 pulgadas. Su precio comienza en 1.567 euros.

Estas innovaciones de Asus no solo mejoran la eficiencia en el diagnóstico y tratamiento de enfermedades, sino que también representan un recurso educativo valioso para los estudiantes de medicina. Con la IA cada vez más integrada en la tecnología cotidiana, Asus lidera el camino hacia un futuro más inteligente y sostenible.

Noticia elaborada a partir del artículo original publicado en 20 Minutos

0000 NOTICIA VISIBLE, 0020 NOTICIAS- IA

iconoChina inaugura el primer hospital de Inteligencia Artificial del mundo: puede tratar a 3.000 pacientes al día

China ha inaugurado el primer hospital del mundo impulsado completamente por Inteligencia Artificial, llamado Agent Hospital, capaz de diagnosticar enfermedades y elaborar planes de tratamiento con una precisión del 93.06%. Este hospital virtual puede atender a 3.000 pacientes al día, logrando en unos días lo que un hospital convencional tardaría años en conseguir.

China ha inaugurado el primer hospital del mundo totalmente impulsado por Inteligencia Artificial, conocido como Agent Hospital. Este innovador centro, desarrollado por investigadores de la Universidad de Tsinghua en Pekín, emplea doctores y enfermeras generados por IA para tratar a los pacientes en un entorno virtual. El hospital destaca por su capacidad para diagnosticar enfermedades y elaborar planes de tratamiento con una precisión del 93.06%, según las pruebas del examen de licencia médica de Estados Unidos.

El Agent Hospital puede atender hasta 3.000 pacientes al día y hasta 10.000 personas en unos pocos días, una cifra que un hospital convencional tardaría años en alcanzar. A pesar de contar con solo 14 doctores y 4 enfermeros impulsados por IA, este hospital virtual representa un avance significativo en la utilización de la tecnología para mejorar la eficiencia en la atención médica.

Los pacientes pueden «acudir» a este hospital a través de un entorno simulado, donde la IA es capaz de predecir y simular escenarios médicos, incluidos brotes que podrían convertirse en pandemias. Aunque todavía no se espera que sustituya a los hospitales reales con personal médico humano, esta innovación se considera beneficiosa y eficiente en el diagnóstico y tratamiento de enfermedades debido a su rapidez y precisión.

Además de su uso en la atención a pacientes, el Agent Hospital ofrece un recurso educativo ideal para los estudiantes de medicina, permitiéndoles proponer tratamientos a pacientes virtuales sin riesgo. Se espera que este hospital esté completamente operativo para la segunda mitad del año, consolidando a China como un líder en el desarrollo y aplicación de la IA en el sector de la salud.

Noticia elaborada a partir del artículo original publicado en El Economista

0000 NOTICIA VISIBLE, 0020 NOTICIAS- IA

iconoEmpleados de OpenAI advierten de los «riesgos» de la IA y de la falta de supervisión

Un grupo de empleados y exempleados de OpenAI ha publicado una carta abierta donde expresan su preocupación por los graves riesgos de la IA y la falta de supervisión adecuada. Reconocen el potencial de la IA, pero destacan los peligros de manipulación, desinformación y pérdida de control de los sistemas autónomos que podrían incluso amenazar la extinción humana.

Un grupo de empleados y exempleados de OpenAI ha hecho pública una carta abierta en la que manifiestan su preocupación sobre el avance rápido de la inteligencia artificial (IA) y los «graves riesgos» que dicha tecnología conlleva, así como la falta de supervisión efectiva. A pesar de reconocer el gran potencial y los beneficios que la IA puede proporcionar a la humanidad, advierten de los peligros que su uso indebido puede acarrear, desde el refuerzo de desigualdades existentes, la manipulación y desinformación, hasta la posible pérdida de control sobre los sistemas autónomos de IA, lo que podría resultar en consecuencias catastróficas, incluso la extinción humana.

Las empresas de IA, incluidas las propias OpenAI, han reconocido estos riesgos, al igual que los gobiernos y expertos en IA de todo el mundo. Sin embargo, los empleados destacan que las compañías tienen incentivos financieros que las motivan a evitar una supervisión efectiva, y las estructuras de gobernanza corporativa existentes no son suficientes para contrarrestar esto. Además, señalan que estas empresas poseen información privilegiada y no pública sobre las capacidades y limitaciones de sus sistemas, así como sobre los niveles de riesgo asociados a diferentes tipos de daños. Actualmente, tienen obligaciones mínimas de compartir esta información con los gobiernos y ninguna con la sociedad civil.

Los empleados subrayan que mientras no exista una supervisión gubernamental adecuada, ellos mismos son de las pocas personas capaces de hacer que estas empresas rindan cuentas. No obstante, los acuerdos de confidencialidad y la falta de protecciones para denunciantes los limitan considerablemente en expresar sus preocupaciones. Llaman a las empresas de IA a no imponer acuerdos de no desprestigio, crear procesos anónimos para que los empleados puedan expresar sus inquietudes y fomentar una cultura de crítica abierta.

Un portavoz de OpenAI respondió a CNBC afirmando que la compañía está comprometida con un debate riguroso sobre la importancia de esta tecnología y mantiene una línea directa de integridad anónima, así como un Comité de Seguridad y Protección.

Noticia elaborada a partir del artículo original publicado en Bolsamanía

Scroll al inicio
Verificado por MonsterInsights