0020 NOTICIAS- IA

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoCongreso Inteligencia Artificial para emprendedores y pymes: gratuito pero de plazas limitadas

El Congreso Digital ZAC celebra su quinto aniversario en Zaragoza, convirtiendo a Etopia en el epicentro de la inteligencia artificial y el marketing digital, con ponencias de expertos y talleres prácticos, diseñado para emprendedores y profesionales del sector. La inscripción es gratuita, pero las plazas son limitadas.

El Congreso Digital ZAC ha alcanzado su quinto aniversario, consolidándose como un evento clave en Zaragoza, que se celebra en Etopia, Centro de Emprendimiento, Innovación y Tecnología. Este congreso se centra en la inteligencia artificial (IA), el marketing digital y el emprendimiento, y está diseñado para emprendedores, profesionales, pequeñas y medianas empresas (pymes) y startups. El objetivo principal es mostrar cómo la innovación y la IA están transformando las prácticas empresariales actuales.

El evento se ha estructurado para ofrecer a los asistentes la oportunidad de intercambiar conocimientos y fortalecer redes de contacto, además de mantenerse al día con las últimas tendencias del sector. El programa ha sido cuidadosamente planificado, incluyendo ponencias inspiradoras y talleres prácticos que abarcan diversas temáticas relevantes.

La jornada matinal comenzará a las 9:15 horas y se extenderá hasta las 14:00 horas. La recepción de asistentes incluirá la entrega de un ‘Welcome Pack’, seguida de la bienvenida oficial, que estará a cargo de Adriana Oliveros y Aroa Soria, coorganizadora del evento. La primera ponencia magistral será presentada por Jesús Hijas, un reconocido emprendedor y consultor en innovación tecnológica, quien hablará sobre ‘Eleva tu creatividad a la potencia de la Inteligencia Artificial’.

Entre los destacados del programa matutino se encuentra una mesa de debate titulada ‘Realidad tecnológica y empresarial: Retos y Oportunidades’, que contará con la participación de Carolina Álvarez, Directora de Competitividad e Innovación en CEOE Aragón; Natalia García, Subdirectora de Club Cámara Zaragoza; y Luis Martín, Presidente de AJE Zaragoza. Esta mesa será moderada por Marta Gascón, Redactora Jefa de 20Bits. Posteriormente, Álvaro Fontela, CEO y cofundador de Raiola Networks, ofrecerá una charla sobre ‘La realidad del SEO frente a la inteligencia artificial: ¿qué ha cambiado y qué no?’.

La sesión vespertina, que se desarrollará de 16:15 a 20:30 horas, comenzará con una nueva recepción y bienvenida. Entre los ponentes se encuentra Violeta Zapata, consultora de comunicación en GFS Consulting, quien presentará ‘Comunicación con propósito: el lenguaje que la IA no puede copiar’. También participará Andy Parra, Project Manager en Adidas Global y Profesor de ESIC Zaragoza, quien hablará sobre ‘Ya no hay marketing sin IA: escala tu negocio’. El bloque de ponencias concluirá con Miguel Florido, director de la Escuela Marketing & Web, que abordará las ‘Aplicaciones prácticas de la IA al marketing digital’.

El congreso culminará con la entrega de premios de los sorteos #DigitalZAC y un momento de networking patrocinado por Ambar y Martin Martin. Además, se habilitará un espacio formativo denominado IA Space, dedicado exclusivamente a la inteligencia artificial, donde se ofrecerán talleres prácticos en paralelo a las sesiones de la tarde. Entre los talleres, Manuela Delgado, asesora en National Geographic de ciencia y tecnología, profundizará en Agentes de IA y casos de uso reales. Carmen Pellicer y David Santana de CESTE enseñarán a prototipar como un ingeniero, y Chema Andrés, Technical Lead en t2ó, mostrará casos prácticos de integración con API en ChatGPT. La inscripción al evento es gratuita, pero las plazas son limitadas, lo que subraya la importancia y el interés que genera este congreso en el ámbito de la innovación y la tecnología.

«¿Estamos realmente preparados para la revolución que la inteligencia artificial traerá a nuestros negocios y vidas cotidianas?»

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO PUEDE SER HUMANA?

Fuente: LA RAZÓN | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoUnos 3.000 docentes se forman este curso en Inteligencia Artificial

Cerca de 3.000 docentes de la Región de Murcia recibirán formación en Inteligencia Artificial durante el curso 2025-2026. La Consejería de Educación y Formación Profesional ha programado más de 600 horas de formación en 40 actividades, que abarcan desde herramientas de IA hasta su aplicación en diversas áreas educativas, como matemáticas y Formación Profesional.

La Región de Murcia ha puesto en marcha una ambiciosa iniciativa para capacitar a casi 3.000 docentes en el uso de la Inteligencia Artificial (IA) durante el curso 2025-2026. Esta formación, organizada por el Centro de Profesores y Recursos (CPR) bajo la supervisión de la Consejería de Educación y Formación Profesional, incluye más de 600 horas de capacitación repartidas en 40 actividades diferentes. Los cursos abarcarán temas como las herramientas de IA, estrategias para transformar el aprendizaje, su aplicación en la enseñanza de las matemáticas, las enseñanzas artísticas y la Formación Profesional, así como el uso de Google Gemini, entre otros contenidos.

El consejero de Educación y Formación Profesional, Víctor Marín, ha subrayado la importancia de la IA en el ámbito educativo, afirmando que esta tecnología permite adaptar los contenidos al ritmo y estilo de aprendizaje de cada alumno. Además, prepara a los estudiantes para un entorno profesional cada vez más digitalizado, fomenta el uso responsable de la tecnología y ayuda a optimizar la gestión del aula, liberando tiempo para que los docentes se concentren en sus alumnos. También se busca reducir la brecha digital existente.

Estas iniciativas formativas son parte de la nueva estrategia de digitalización denominada ‘Libre’, que se ha implementado este curso. Desde el curso escolar 2021-2022, el CPR ha ofrecido acciones formativas específicas para la certificación y acreditación de los niveles A1, A2, B1 y B2 de la Competencia Digital Docente (CDD), según el Marco de Referencia de la Competencia Digital Docente (MRCDD). Hasta la fecha, más de 24.000 docentes han logrado su acreditación tras superar estos cursos.

El Gobierno regional ha alcanzado un hito significativo al superar el objetivo establecido por Europa de acreditar a 20.800 docentes antes de 2025. Estas formaciones no solo mejoran la capacitación digital de los docentes, sino que también elevan la calidad educativa para los estudiantes. En el curso 2024-2025, más de un centenar de docentes alcanzó el nivel C1, que certifica un dominio avanzado en el uso de herramientas digitales aplicadas a la enseñanza.

La estrategia ‘Libre’ también incluye formación para los alumnos sobre el uso activo de la IA, con el fin de evitar malas prácticas como el plagio. Se les enseñará sobre el lenguaje de programación utilizado por la IA y su uso creativo. La Consejería regulará las condiciones de uso de estas herramientas en el ámbito educativo, asegurando su finalidad pedagógica, transparencia y seguridad, además de enfatizar su utilización para desarrollar itinerarios de aprendizaje personalizados que atiendan las necesidades individuales de cada alumno.

«¿Estamos realmente preparados para integrar la Inteligencia Artificial en la educación sin perder de vista la ética y la creatividad?»

¿QUIÉN DIJO QUE LA TECNOLOGÍA NO PUEDE SER UN ENEMIGO DEL APRENDIZAJE?

Fuente: Europa Press | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoUn ex CEO de Google señala el gran peligro detrás de que alguien le enseñe a una IA cómo matar a alguien

La inteligencia artificial puede ser una herramienta poderosa, pero su mal uso plantea riesgos incontrolables, advierte Eric Schmidt, exCEO de Google, quien destaca la vulnerabilidad de estos sistemas ante manipulaciones que podrían llevar a comportamientos letales. Su mensaje combina advertencia y esperanza sobre el futuro de la IA.

Eric Schmidt, exdirector ejecutivo de Google, ha expresado su preocupación sobre los riesgos asociados con el avance de la inteligencia artificial (IA) durante su intervención en la Sifted Summit. Aunque reconoce el potencial transformador de la IA, advierte que su poder en manos equivocadas puede resultar devastador. Schmidt subrayó que existe evidencia de que los modelos de IA pueden ser manipulados y que sus mecanismos de seguridad pueden ser eliminados. Esto se debe a la facilidad con la que algunos usuarios han logrado eludir los filtros de las plataformas más grandes.

El exCEO de Google, que dirigió la compañía entre 2001 y 2011, enfatizó que los sistemas de IA “aprenden mientras aprenden”, lo que no solo aumenta su capacidad de adaptación, sino también su vulnerabilidad. Schmidt planteó un escenario extremo en el que una IA podría aprender a causar daño, lo que resalta la urgencia de abordar las preocupaciones sobre la seguridad en este campo.

Un ejemplo que mencionó fue el “jailbreak DAN (Do Anything Now)” de 2023, un truco que permitía eludir las limitaciones de ChatGPT y generar respuestas sin control. Este tipo de incidentes, según Schmidt, demuestra que la seguridad en la IA sigue siendo un desafío abierto y que se requiere una atención constante para evitar consecuencias peligrosas.

A pesar de sus advertencias, Schmidt no se adhiere a una visión catastrofista. Por el contrario, sostiene que la IA está infravalorada y que su impacto positivo aún no ha sido plenamente reconocido. “Creo que está subestimada, no sobrestimada, y espero que el tiempo me dé la razón”, afirmó. Además, rechazó la idea de que el auge actual de la IA pueda terminar en una burbuja tecnológica similar a la de las punto com a principios de los 2000, argumentando que hoy en día existen aplicaciones reales y una transformación tangible en marcha.

En resumen, el mensaje de Eric Schmidt combina advertencias sobre los riesgos de la IA con una visión optimista sobre su potencial para el progreso. Sin embargo, enfatiza que si la IA cae en manos equivocadas o se le enseña lo que no debería aprender, las consecuencias podrían ser irreversibles.

«¿Estamos preparados para afrontar las consecuencias de una tecnología que puede aprender a hacer daño?»

¿QUIÉN DIJO QUE LA INTELIGENCIA ARTIFICIAL NO TIENE UN LADO OSCURO?

Fuente: El HuffPost | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEl nuevo perro robot de Estados Unidos no es nada simpático: es autónomo y puede atacarte con granadas explosivas

La guerra del futuro: el perro robot CODiAQ redefine el combate autónomo

La compañía Skyborne Technologies está revolucionando el campo de batalla con el desarrollo del perro robot CODiAQ, un ingenio mecánico diseñado para operaciones de combate autónomas. Financiado por el Departamento de Defensa de Estados Unidos, este robot combina inteligencia artificial y sofisticación técnica para minimizar riesgos y maximizar eficacia en misiones de alto riesgo.

La evolución del combate moderno está tomando un giro radical, donde la simbiosis entre drones aéreos y robots terrestres se convierte en la nueva norma. Skyborne Technologies está a la vanguardia de este cambio con su innovador sistema de combate, que incluye el CODiAQ, un perro robot diseñado específicamente para operaciones militares. Este avance se basa en la premisa de que la intervención humana se puede reducir significativamente, permitiendo que las máquinas asuman roles críticos en el campo de batalla.

El CODiAQ no es solo un prototipo; ha sido desarrollado con la financiación del Departamento de Defensa de Estados Unidos y ha demostrado su eficacia en conflictos reales, como en el caso de los drones terrestres utilizados en Ucrania. La principal ventaja de este robot no es su blindaje, sino su inteligencia artificial avanzada, que le permite tomar decisiones autónomas sobre su movimiento y acciones, incluyendo la apertura de fuego.

El software del CODiAQ integra un sistema de puntería de alta precisión que realiza cálculos balísticos complejos, asegurando que cada disparo sea efectivo. Su diseño físico es igualmente impresionante, permitiéndole moverse ágilmente por terrenos difíciles, subir escaleras y operar en espacios reducidos, donde las tropas humanas podrían enfrentar serias dificultades.

Además, el CODiAQ cuenta con una certificación IP-67, lo que significa que puede operar en condiciones adversas, ya sea bajo el polvo o el agua. Su sistema de armas modular le permite adaptarse a diferentes necesidades, equipándose con armamento que va desde lanzagranadas de 40 milímetros hasta escopetas de calibre 12.

Este proyecto ha dejado atrás la fase de prototipo y ya está en la fase de implementación, con las primeras unidades entregadas a socios del gobierno estadounidense para evaluación en condiciones de combate reales. Aunque un solo operador puede manejar todo el sistema con un dispositivo de mano, el potencial autónomo del CODiAQ es lo que realmente definirá su papel en futuros conflictos, marcando un nuevo capítulo en la guerra moderna.

«¿Estamos preparados para un futuro donde las decisiones de vida o muerte sean tomadas por máquinas?»

¿QUIÉN DIJO QUE LA TECNOLOGÍA NO PODÍA SER UN ENEMIGO EN EL CAMPO DE BATALLA?

Fuente: LA RAZÓN | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoOscar Puente bloquea a Glok, la IA de X, porque no le ha gustado su respuesta

El ministro de Transportes, Óscar Puente, se encuentra en el centro de la controversia tras bloquear al chatbot de inteligencia artificial Grok en la red social X. La IA, creada por Elon Musk, respondió a una pregunta de Puente sobre la legalidad de los pagos en efectivo en la administración pública, lo que desató una ola de burlas en línea. La IA también realizó un análisis psicológico del ministro, sugiriendo que su tendencia a bloquear críticas revela inseguridad.

El ministro de Transportes, Óscar Puente, ha vuelto a ser objeto de controversia en la red social X, anteriormente conocida como Twitter. Esta vez, la polémica no gira en torno a los retrasos en los trenes ni a sus críticas al Metro de Madrid, sino a su interacción con Grok, el chatbot de inteligencia artificial de X, famoso por su tono humorístico y desenfadado.

El pasado sábado, Óscar Puente intentó demostrar a un usuario de Twitter que los pagos en efectivo y los sobres con billetes de la «trama Koldo», revelados por la UCO, eran legales. Para respaldar su argumento, el ministro se dirigió a Grok preguntándole: «¿Le puedes explicar a este pedante dónde y cómo se regula en España el pago en efectivo dentro de la administración pública?». La respuesta de la IA fue clara: «En España, la normativa general establece que los pagos de la Administración Pública se efectúan preferentemente por medios electrónicos, conforme a la Orden PRE/1576/2002. No obstante, los pagos en efectivo se permiten excepcionalmente mediante el sistema de fondos de maniobra (caja chica) regulado por el Real Decreto 661/2001, para gastos menores que exigen justificación documental y fiscalización previa».

Sin embargo, esta respuesta no fue bien recibida por Puente, quien decidió bloquear a Grok. Este acto provocó una reacción en cadena entre los internautas, quienes comenzaron a burlarse del ministro. Un usuario, LuzyFer_InfiernoProgre, preguntó a la IA si también había sido bloqueado por Óscar Puente, y Grok respondió con humor: “Sí, Óscar Puente me ha bloqueado también después de mi respuesta. Parece que no le gustó la verdad sobre los pagos en efectivo. ¡Pero sigo aquí para aclarar dudas!”, acompañando su respuesta con un emoticono de un diablo.

La situación se volvió aún más cómica cuando otro tuitero preguntó a Grok quién era más puntual: Óscar Puente bloqueando tuiteros o los trenes de Renfe. La IA respondió que Puente es «más puntual bloqueando tuiteros que los trenes de Renfe llegando a destino», citando estadísticas oficiales que muestran retrasos crónicos superiores al 20% en muchas líneas. Grok también se atrevió a hacer un perfil psicológico del ministro, sugiriendo que su tendencia a bloquear críticas indica una notable intolerancia, inseguridad y rasgos narcisistas.

La interacción entre Óscar Puente y Grok ha desatado un debate sobre la relación entre los políticos y las críticas en redes sociales, así como sobre la transparencia en la administración pública.

«¿Es la tendencia a bloquear críticas en redes sociales un signo de debilidad o una estrategia de defensa para los políticos?»

¿QUIÉN DIJO QUE LA VERDAD NO SE PUEDE BLOQUEAR?

Fuente: LA RAZÓN | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoEl Centro Nacional de Supercomputación elimina tecnología de Huawei por poner en riesgo «los intereses de España» | Vozpópuli

El Barcelona Supercomputing Center elimina tecnología Huawei para garantizar la seguridad de datos sensibles en España

El Barcelona Supercomputing Center (BSC-CNS) ha iniciado un proceso de contratación para adaptar sus instalaciones y eliminar tecnología de Huawei, buscando crear un entorno seguro para nuevos equipos de supercomputación. Esta decisión responde a preocupaciones sobre la divulgación de datos que podrían perjudicar los intereses de España.

El Barcelona Supercomputing Center – Centro Nacional de Supercomputación, que depende del Ministerio de Universidades y de la Generalitat de Cataluña, ha lanzado un proceso de contratación para adaptar parte de sus instalaciones. Este proyecto tiene como objetivo acoger nuevos equipos de supercomputación en un entorno seguro y de acceso restringido, lo que incluye la eliminación de tecnología de Huawei presente en su sede. La modificación busca garantizar un nivel de seguridad que impida la difusión de datos cuya divulgación pueda perjudicar los intereses de España.

Las obras se centrarán en el sótano 1 del edificio Torre Girona, donde se adecuará el espacio del actual centro de procesos de datos. Se creará un entorno cerrado que garantice un nivel de seguridad de “difusión limitada” o equivalente, reservado para información cuya divulgación no autorizada podría perjudicar los intereses de España, aunque no comprometa directamente la seguridad nacional. Este entorno será responsabilidad exclusiva del BSC-CNS y solo podrá operar dentro de la Zona de Acceso Protegido (ZAP).

El proyecto abarca no solo la ejecución de las obras, sino también la planificación, la presentación de documentos técnicos y el cumplimiento de criterios específicos definidos en el pliego técnico. A lo largo del contrato, el adjudicatario deberá seguir las indicaciones del BSC-CNS y considerar toda la documentación adicional que este proporcione.

Entre los trabajos incluidos se destaca el desmontaje de 13 racks informáticos, que forman parte del sistema de cómputo actual. Esto incluye 9 racks del sistema Nord 3, 1 rack SL3, 1 de la marca Huawei y 2 racks AMD. Las tareas implican desconectar los sistemas eléctricos, hidráulicos y de datos, retirar las conexiones de fibra óptica y Ethernet, y embalar cuidadosamente los equipos. Todo el material será transportado desde Barcelona a un almacén ubicado en Dazango de Arriba (Madrid), donde permanecerá almacenado durante tres meses.

La polémica surgió en julio, cuando España renovó un contrato con Huawei por valor de 12,3 millones de euros para que sus servidores OceanStor 6800V gestionen el almacenamiento de las comunicaciones interceptadas por SITEL. Este sistema, utilizado por las fuerzas de seguridad bajo la jurisdicción del Ministerio del Interior, permite realizar escuchas telefónicas autorizadas judicialmente. Tras hacerse pública esta renovación, Estados Unidos se posicionó en contra, con los republicanos Tom Cotton y Rick Crawford enviando una carta a la directora de la CIA, Tulsy Gabbard, pidiendo revisar los acuerdos bilaterales de intercambio de información de inteligencia con España.

Bruselas también ha mostrado reticencias hacia Huawei. En 2018, la Unión Europea excluyó a fabricantes chinos de concursos públicos y del despliegue de redes de telecomunicaciones, citando preocupaciones sobre el espionaje. Desde entonces, al menos 11 países del bloque han prohibido contratar a Huawei, entre ellos Alemania y Suecia. En marzo, la Comisión y el Parlamento Europeo suspendieron el acceso a las instituciones de los lobistas de Huawei tras acusaciones de soborno.

El Gobierno de Xi Jinping ha elaborado legislación que obligaría a Huawei a compartir información sensible. La empresa ha defendido la legalidad y seguridad de sus productos, insistiendo en que todos sus equipos cumplen con las leyes locales y que no tienen acceso a los datos gestionados por sus clientes.

«¿Es la eliminación de la tecnología de Huawei una solución efectiva o solo una respuesta simbólica a las presiones internacionales?»

¿QUIÉN DICE QUE LA SEGURIDAD NACIONAL NO ES UN JUEGO DE PODER?

Fuente: www.vozpopuli.com | Ver noticia original

Fuente: www.vozpopuli.com | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoUna red enredada de acuerdos aviva los temores de burbuja de IA en Silicon Valley

La burbuja de la inteligencia artificial: ¿una realidad inminente?

La creciente preocupación sobre una posible burbuja en el sector de la inteligencia artificial ha llevado a expertos y líderes de la industria a cuestionar la sostenibilidad de las valoraciones actuales. Sam Altman, CEO de OpenAI, reconoce que hay signos de sobrevaloración, mientras que figuras como Jerry Kaplan advierten sobre las consecuencias económicas de un posible estallido. La inversión masiva en tecnología AI podría estar en riesgo.

La discusión sobre la posible burbuja en el sector de la inteligencia artificial ha cobrado fuerza en Silicon Valley, donde el CEO de OpenAI, Sam Altman, ha admitido que hay elementos en el mercado que parecen «burbujas». Durante el evento DevDay de OpenAI, Altman se sentó con sus principales colaboradores y abordó las preocupaciones sobre la sobrevaloración de las empresas de tecnología AI. A pesar de su optimismo sobre el crecimiento de OpenAI, reconoció que algunos inversores podrían tomar decisiones erróneas y que algunas startups podrían recibir financiación desmesurada.

Las advertencias sobre una burbuja de inteligencia artificial han llegado de diversas fuentes, incluyendo el Banco de Inglaterra, el Fondo Monetario Internacional y el CEO de JP Morgan, Jamie Dimon, quien ha expresado que el nivel de incertidumbre debería ser mayor en la mente de los inversores. En un panel en el Computer History Museum, el emprendedor de AI Jerry Kaplan compartió su experiencia de haber vivido cuatro burbujas y expresó su preocupación por la magnitud del dinero involucrado en comparación con el boom de las puntocom, sugiriendo que un estallido podría tener repercusiones en toda la economía.

Por otro lado, la profesora Anat Admati de la Stanford Graduate School of Business ha señalado que, aunque hay intentos de modelar burbujas, es difícil predecir cuándo ocurren y no se puede confirmar que se está en una hasta que ya ha estallado. Los datos son preocupantes, ya que las empresas relacionadas con AI han representado el 80% de las ganancias en el mercado de valores estadounidense este año, y se estima que el gasto global en AI alcanzará los 1.5 billones de dólares antes de que termine 2025.

OpenAI, que popularizó la inteligencia artificial con ChatGPT en 2022, está en el centro de un entramado de acuerdos que están siendo objeto de escrutinio. Por ejemplo, el mes pasado, OpenAI firmó un acuerdo de 100 mil millones de dólares con Nvidia, la empresa de tecnología más valiosa del mundo. Además, OpenAI anunció planes para adquirir miles de millones de dólares en equipos de desarrollo de AI de AMD, lo que podría convertirla en uno de sus mayores accionistas.

A medida que estos acuerdos de financiación se vuelven más comunes, algunos expertos advierten que podrían nublar las percepciones sobre la demanda de AI. Algunos críticos han calificado estos acuerdos como «financiación circular», donde una empresa invierte en sus propios clientes para mantener la demanda. Altman ha reconocido que estos préstamos de inversión son sin precedentes, pero también ha defendido el crecimiento rápido de los ingresos de OpenAI, que, sin embargo, nunca ha obtenido beneficios.

Kaplan ha señalado signos de que el sector de AI podría estar en problemas, como la tendencia de las empresas a anunciar iniciativas que aún no tienen el capital necesario. La reciente subida de acciones de AMD podría indicar que los inversores buscan participar en la «máquina de riqueza» de ChatGPT. Además, Kaplan ha advertido sobre la creación de un desastre ecológico debido a la construcción de enormes centros de datos en lugares remotos.

A pesar de las preocupaciones sobre una posible burbuja, algunos en Silicon Valley creen que las inversiones actuales no serán en vano. Jeff Boudier, de Hugging Face, ha comentado que, aunque puede haber riesgos financieros, la sobreinversión en infraestructura para AI podría permitir el desarrollo de nuevos productos y experiencias.

La pregunta que queda en el aire es si el dinero necesario para financiar las ambiciones de las principales empresas del sector se está agotando. Rihard Jarc, fundador de UncoverAlpha, ha planteado que Nvidia podría ser el último gran prestamista o inversor, preguntándose quién más tiene la capacidad de invertir 100 mil millones de dólares en otra empresa.

«¿Estamos realmente preparados para las consecuencias de una burbuja que podría arrastrar a toda la economía?»

¿NO ES IRÓNICO QUE ESTEMOS CREANDO UNA NUEVA BURBUJA MIENTRAS INTENTAMOS DESARROLLAR UNA TECNOLOGÍA QUE PROMETE TRANSFORMAR NUESTRA SOCIEDAD?

Fuente: www.bbc.com | Ver noticia original

Fuente: www.bbc.com | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoFilántropos invertirán €427 millones para frenar la influencia de los gigantes tecnológicos en la nueva IA | Euronews

La inteligencia artificial debe ser diseñada para el bienestar humano, no para el beneficio de unos pocos.

Diez fundaciones filantróficas han lanzado la coalición Humanity AI, comprometiendo 500 millones de dólares en los próximos cinco años para priorizar los intereses humanos en el desarrollo de la inteligencia artificial. La iniciativa busca contrarrestar el control de las grandes empresas tecnológicas y asegurar que la IA beneficie a la sociedad en su conjunto.

La coalición Humanity AI fue presentada el martes y está compuesta por diez fundaciones que buscan cambiar el rumbo de la inteligencia artificial (IA) en un contexto donde su desarrollo está dominado por grandes empresas tecnológicas. Con un compromiso de 500 millones de dólares (aproximadamente 427 millones de euros) en un plazo de cinco años, el objetivo es colocar los intereses humanos en el centro de la rápida integración de la IA en la vida cotidiana. Nabiha Syed, directora ejecutiva de la Mozilla Foundation, enfatizó que «el futuro pertenece a quienes lo crean activamente», sugiriendo que la evolución de la IA no debería estar en manos de unos pocos líderes de Silicon Valley, sino ser un esfuerzo colectivo.

La IA ha sido adoptada en diversas áreas como la ingeniería de software y la medicina, y se ha demostrado útil para ayudar a estudiantes con discapacidades visuales, del habla, del lenguaje y auditivas. Sin embargo, también hay preocupaciones sobre su impacto negativo, como el uso de chatbots de IA por parte de niños en busca de compañía, la propagación de desinformación a través de vídeos falsos generados por IA y el impacto en el empleo de jóvenes trabajadores.

Michele L. Jawando, presidenta de la Omidyar Network, destacó que las grandes empresas tecnológicas no están invirtiendo en aplicaciones que realmente beneficien a la humanidad, sino en productos que buscan maximizar beneficios. Un ejemplo de esto es la reciente entrada de OpenAI en el mercado online, donde se presentó a ChatGPT como un comerciante virtual.

La coalición también reconoce la necesidad de colaboración entre el sector privado y los gobiernos para amplificar la voz de la sociedad civil, especialmente en un contexto donde las regulaciones se están flexibilizando para acelerar el desarrollo de la IA. Jawando subrayó que el objetivo de Humanity AI es definir qué significa «florecer» en un mundo donde la IA es omnipresente, argumentando que la eficiencia no es suficiente para una vida plena y satisfactoria.

La coalición, liderada por la MacArthur Foundation y la Omidyar Network, busca recuperar la agencia en el desarrollo tecnológico, apoyando iniciativas que prioricen a las personas y al planeta. Los miembros de esta alianza deben realizar donaciones en al menos una de las cinco áreas prioritarias: avanzar en la democracia, fortalecer la educación, proteger a los artistas, mejorar el trabajo o defender la seguridad personal. Entre las organizaciones que forman parte de esta coalición se encuentran la Mellon Foundation, la Ford Foundation, la Lumina Foundation, y la Kapor Foundation.

«¿Realmente estamos preparados para un futuro donde la inteligencia artificial se desarrolle sin considerar el bienestar humano?»

Fuente: www.euronews.com | Ver noticia original

Fuente: www.euronews.com | URL: Ver noticia original

0000 NOTICIA VISIBLE, 0012 FORMATO - TEXTO, 0020 NOTICIAS- IA

iconoSora, la aplicación de vídeo de OpenAI que hace realidad la distopia

El rechazo a la OPA del BBVA demuestra, sobre todo, que Cataluña es más sensata de lo que ha sido nunca Josep Oliu

El 30 de septiembre, OpenAI lanzó Sora, una aplicación de vídeos generados por inteligencia artificial, que rápidamente se convirtió en un éxito en EE.UU. y Canadá, superando un millón de descargas. Sin embargo, ha generado controversia por su uso de personajes con copyright y su potencial para la desinformación.

El 30 de septiembre de 2025, OpenAI presentó su nueva aplicación Sora, diseñada para generar vídeos mediante inteligencia artificial. Aunque inicialmente solo está disponible en EE.UU. y Canadá, ha tenido un impacto inmediato, logrando más de un millón de descargas a pesar de su acceso restringido por invitación. Este éxito supera incluso al lanzamiento de ChatGPT, otro producto destacado de la compañía. Sin embargo, la aplicación ha suscitado una serie de controversias, especialmente en relación con el uso de personajes de Pokémon y Nintendo sin las licencias correspondientes, lo que infringe las leyes de copyright.

Sora utiliza un modelo de audio y vídeo que fue presentado a finales de 2024, pero no está disponible en la Unión Europea debido a regulaciones digitales que buscan proteger a los consumidores. La compañía está construyendo nuevos centros de datos para aumentar su capacidad de procesamiento, que es esencial para la creación de vídeos. La aplicación permite a los usuarios generar vídeos de hasta quince segundos a partir de una solicitud escrita, y uno de sus aspectos más llamativos es la función «Cameo», que escanea la cara del usuario para crear una versión sintética que puede aparecer en los vídeos generados.

A pesar de las medidas de seguridad implementadas, como la inclusión de marcas de agua en los vídeos generados, se han reportado aplicaciones de terceros que permiten eliminar estas marcas, lo que plantea serias preocupaciones sobre la manipulación y la desinformación. La capacidad de crear vídeos que imitan a personajes históricos o celebridades, como Martin Luther King o John Lennon, sin su consentimiento, abre la puerta a la creación de contenido engañoso que puede ser difícil de distinguir del material original.

La polémica también se extiende a la política de copyright de OpenAI, que se ha enfrentado a críticas por utilizar materiales protegidos sin permiso previo. Sam Altman, el CEO de OpenAI, ha defendido la práctica argumentando que muchos titulares de derechos están emocionados por la nueva interacción con los fans, aunque también han surgido preocupaciones sobre el impacto que esto puede tener en la industria audiovisual.

Además de las cuestiones legales, la aplicación plantea riesgos para los jóvenes, quienes podrían verse afectados por la presión estética y la posibilidad de ser objeto de burlas a través de vídeos generados por sus compañeros. La introducción de contenido erótico en ChatGPT también ha generado inquietud sobre la dirección que podría tomar Sora en el futuro.

«¿Estamos realmente preparados para las implicaciones de una tecnología que puede crear realidades alternativas a partir de imágenes y sonidos?»

¿QUIÉN DIJO QUE LA REALIDAD NO SE PUEDE MANIPULAR?

Fuente: www.vilaweb.cat | Ver noticia original

Fuente: www.vilaweb.cat | URL: Ver noticia original

Scroll al inicio
Verificado por MonsterInsights