El documento encargado por el Departamento de Estado de Estados Unidos sugiere que sin una acción rápida y determinante, la IA podría suponer una amenaza de extinción similar o mayor a la que alguna vez representaron las armas nucleares
En un informe encargado por el gobierno de Estados Unidos, expertos advierten sobre los riesgos de seguridad nacional que presentan los avances actuales en inteligencia artificial (IA), incluso sugiriendo que podrían constituir una amenaza de extinción para la especie humana si no se actúa de manera “rápida y decisiva”.
Según el documento, obtenido de manera exclusiva por Time Magazine antes de su publicación, el desarrollo de IA de vanguardia plantea riesgos urgentes y crecientes, comparando su potencial para desestabilizar la seguridad global con la introducción de armas nucleares.
El informe, titulado “Un Plan de Acción para Aumentar la Seguridad y la Seguridad de la IA Avanzada”, fue encargado por el Departamento de Estado de Estados Unidos en noviembre del 2022 bajo un contrato federal de 250,000 dólares, según registros públicos.
Los desarrollos actuales en IA presentan riesgos urgentes y crecientes para la seguridad nacional.
Fue elaborado por Gladstone AI, una pequeña empresa dedicada a impartir sesiones técnicas sobre IA a empleados gubernamentales, tras más de un año de investigación y diálogos con más de 200 empleados del gobierno, expertos y trabajadores de compañías de IA de vanguardia como OpenAI, Google DeepMind, Anthropic y Meta.
Entre las recomendaciones del informe, destaca la propuesta de hacer ilegal el entrenamiento de modelos de IA utilizando más de cierto nivel de potencia de cálculo, sugiriendo que tal umbral sea establecido por una nueva agencia federal de IA. Esta agencia también debería requerir que las empresas de IA en la “frontera” de la industria obtengan permiso del gobierno para entrenar y desplegar nuevos modelos por encima de un cierto umbral inferior.
El documento sugiere, además, considerar urgentemente la prohibición de la publicación de los “pesos” (configuraciones internas) de modelos de IA potentes, donde las violaciones podrían ser castigadas con tiempo en prisión, y recomienda un mayor control en la fabricación y exportación de chips de IA, así como un incremento en la financiación federal hacia la investigación de “alineamiento” para hacer la IA avanzada más segura.
La propuesta surge en un contexto de creciente inquietud pública sobre las capacidades y el potencial impacto de sistemas inteligentes más avanzados, evidenciado por la rápida adopción de herramientas como ChatGPT. (EFE/EPA/Wu Hao)
Las conversaciones con trabajadores de seguridad de IA en laboratorios de vanguardia revelan una preocupación por los incentivos perversos que guían la toma de decisiones de los ejecutivos que controlan sus empresas. “El auge de la IA avanzada y la IA general artificial tiene el potencial de desestabilizar la seguridad global de maneras reminiscentes a la introducción de armas nucleares”, señala el informe.
Esta advertencia llega en un momento de rápido desarrollo tecnológico, visible ampliamente desde el lanzamiento del chatbot ChatGPT en noviembre de 2022, que ha llevado a muchos a cuestionar los posibles riesgos existenciales de futuras IA.
Herramientas nuevas, con más capacidades, han seguido siendo lanzadas a un ritmo acelerado desde entonces. Mientras los gobiernos del mundo discuten cómo regular mejor la IA, las principales empresas tecnológicas ya están construyendo la infraestructura para entrenar la próxima generación de sistemas más potentes, planeando en algunos casos utilizar 10 o 100 veces más potencia de cálculo.
A medida que los gobiernos discuten regulaciones para IA, las grandes tecnológicas avanzan en desarrollar sistemas más poderosos. (Imagen Ilustrativa Infobae)
Según una encuesta realizada recientemente por el Instituto de Política de IA, más del 80% del público estadounidense cree que la IA podría causar accidentalmente un evento catastrófico, y el 77% de los votantes piensa que el gobierno debería hacer más para regular la IA.
El Departamento de Estado no respondió a varias solicitudes de comentarios sobre el informe realizadas por Time Magazine. Cabe destacar que la primera página del informe aclara que las recomendaciones “no reflejan las vistas del Departamento de Estado de Estados Unidos ni del Gobierno de Estados Unidos”, mostrando una distinción clara entre los hallazgos del informe y la posición oficial del gobierno.
Enfoque Now es una plataforma digital dedicada a conectar e informar a la comunidad latina acerca de los acontecimientos que suceden a nivel local e internacional.
La edición impresa de agosto de Vogue marca un hito: por primera vez, una modelo completamente generada por inteligencia artificial protagoniza una campaña publicitaria. Se trata de Seraphinne Vallora, una creación fotorrealista desarrollada por Valentina González y Andreea Petrescu, fundadoras de una empresa especializada en avatares humanos para uso comercial.
Campaña: Dos páginas para la marca Guess, con Seraphinne en escenarios cotidianos, como un café y una pared azul, vestida con prendas de verano. Identificación: Solo una línea diminuta revela que es una modelo artificial: “Seraphinne Vallora on AI”. Proceso creativo: Involucra cinco empleados y puede tardar hasta un mes. Las tarifas alcanzan cifras de seis dígitos.
Controversia: Modelos reales y activistas laborales critican el desplazamiento humano y la perpetuación de estándares de belleza inalcanzables.
Felicity Hayward y Sara Ziff advierten que la campaña responde más a recortes de costos que a innovación.
Las creadoras admiten que las imágenes de IA con tonos de piel diversos reciben menos interacción, lo que influye en sus publicaciones.
Vogue China, Italia y Portugal ya han experimentado con portadas generadas por IA. Además, OpenAI y Condé Nast anunciaron una alianza para integrar contenido en ChatGPT.
Alice L. Walton, la mujer más rica del mundo y heredera del imperio Walmart, inauguró el 14 de julio la Escuela de Medicina Alice L. Walton (AWSOM) en Bentonville, Arkansas, con el objetivo de transformar la educación médica en Estados Unidos.
AWSOM propone un modelo académico centrado en medicina preventiva, salud integral y atención comunitaria, alejándose del enfoque tradicional biomédico. El plan de estudios incluye biología clásica reforzada con nutrición, arte, humanidades y tecnología, con más de 50 horas prácticas en cocina saludable, talleres agrícolas y análisis artístico en el Museo Crystal Bridges. Además, se promueve el uso de inteligencia artificial y drones para mejorar el acceso a medicamentos en zonas rurales.
La escuela cuenta con alianzas estratégicas con la Universidad de Stanford, el sistema de salud Mercy y el Heartland Whole Health Institute. Walton, quien sobrevivió a un grave accidente automovilístico en los años 80, impulsa este proyecto como respuesta a las deficiencias del sistema de salud estadounidense. Las primeras cinco generaciones de estudiantes tendrán matrícula cubierta, gracias a su respaldo financiero.
AWSOM busca ser un modelo replicable y sostenible, que forme médicos capaces de abordar los factores conductuales responsables del 60% de las muertes prematuras en EE.UU. Con esta iniciativa, Walton apuesta por una medicina más humana, preventiva y conectada con las comunidades.