Connect with us

Tecnología

La inteligencia artificial y un nuevo desafío: distinguir lo verdadero de lo falso

Según el analista de datos Juan Graña, la IA traerá un nuevo formato en el combate contra la desinformación. Además, advierte sobre la perdida de trabajos en el corto plazo

Publicado

on

ia trump

Imágenes de un arresto de Donald Trump que nunca existió. El papa Francisco vestido como un rey del hip hop. Un dúo ficticio entre Drake y The Weeknd. Reportes que alertan sobre la estabilidad de 300 millones de trabajos. Son apenas algunas de las postales que dejó la irrupción masiva de la Inteligencia Artificial (IA) en el último mes. La pregunta es cuánto de esto se volverá relevante en nuestras vidas en el corto plazo.

Juan Graña fue periodista pero hoy es analista de datos. Durante cinco años lideró la unidad creada por Twitter para medir el impacto de la desinformación en la plataforma. En diálogo con Infobae, advirtió acerca de los nuevos desafíos que la IA traerá en el combate contra la desinformación y las dificultades para distinguir entre contenido real y sintético.

-Más de mil CEOs y académicos firmaron una carta solicitando frenar por seis meses el desarrollo de la IA porque su desarrollo sin control representa un “riesgo para la sociedad y la humanidad”. ¿Comparte la idea de que es un riesgo?

-Comparto que la IA sin control trae nuevos riesgos, pero no coincido con que su desarrollo tenga que ser frenado. Tampoco comparto el tono apocalíptico con el que se hacen muchas de las críticas. La IA artificial no va a dominar a la humanidad en unos años, como sugieren algunos. El verdadero problema, al menos hoy en día, son las consecuencias que va a traer a corto plazo. Principalmente dos: la perdida de trabajos y la creación de contenido artificial que va a erosionar aún más la idea de verdad.

La pérdida de trabajos es tal vez de la que más se habló hasta ahora. Un estudio de Goldman Sachs muestra que los trabajos que corren mayor riesgo son los trabajos de oficina. Estamos hablando de 300 millones de puestos. Va a haber casos donde el trabajo que hacían cinco personas ahora lo van a empezar a hacer una o dos con ayuda de la IA. Seguramente la IA va a generar trabajos que hoy en día no existen, pero la velocidad con la que se destruyan puestos va a ser más rápida con la que surjan los nuevos.

El segundo problema más inmediato es la profundización acerca de la duda de lo que es verdad y qué no lo es. Muchos vieron la foto del papa Francisco vestido con una campera blanca . Ese es un ejemplo bastante inocente, pero hay otros más inquietantes. El fundador de Bellingcat, un colectivo de periodismo ciudadano, hace poco creó una imagen mostrando un supuesto arresto de Donald Trump. La imagen era falsa, pero muestra la facilidad con la que esas imágenes pueden ser creadas hoy en día sin necesidad de grandes conocimientos técnicos. Hasta hace pocos las imágenes creadas digitalmente podían ser reconocidas por errores en cómo ilustraban las orejas o las manos, pero eso ya está empezando a ser cosa del pasado. Incluso a los expertos les cuesta diferenciar entre imágenes artificiales y fotografías reales. Ni siquiera el jurado de concurso de fotografía de los premios Sony pudo distinguir entre las imágenes reales y las sintéticas.

inteligencia artificial

-¿No hay posibilidades de que se creen herramientas para la detección de esas imágenes?

-Posibilidades hay, pero es difícil imaginar que todo el mundo va a andar con una app en el celular diferenciando entre fotografías reales y artificiales. Tal vez las grandes tecnologías incluyan el servicio dentro de sus propias plataformas. Pero aún si eso sucediera, el problema no termina con las imágenes. También vamos a tener audios artificiales que imitan la voz. Este mes un usuario de YouTube usó la IA para clonar las voces de Drake y The Weeknd y creó una supuesta colaboración entre ellos dos que en realidad nunca existió [NdR: se refiere a la canción “Heart on my sleeve]. La mayoría de las plataformas decidió dar la canción de baja después de que la compañía discográfica presentara una queja por derechos de autor, pero la tecnología se está moviendo más rápido que las regulaciones.

-¿No ve posibilidades de que los gobiernos se pongan al día con esas regulaciones?

-Los esfuerzos regulatorios ya empezaron, pero las últimas dos décadas muestran que los gobiernos siempre corren de atrás con estas cuestiones, ya sea Napster, los datos personales en las redes sociales o las criptomonedas. Es el juego del gato y el ratón: cuando las regulaciones se pongan al día, seguramente los problemas ya van a ser otros.

-¿Nos enfrentamos un problema sin solución entonces?

-No. Soluciones va a haber, pero no va a haber una solución rápida ni absoluta. La solución seguramente va a ser una combinación de regulaciones estatales, restricciones autoimpuestas por las grandes tecnológicas por temor a juicios millionarios y la propia desconfianza de los usuarios, que van a empezar a sospechar del contenido que ven online.

-¿Esa desconfianza no es un arma de doble filo? También puede generar que se desconfíe de cosas verdaderas

-Sí. Es el problema de la duda acerca de lo que es verdad y lo que no lo es. Hace unos años surgió el concepto de fake news, que refería a la información deliberadamente falsa que era presentada como verdadera. Al principio, fake news se refería a un grupo más bien pequeño de casos, pero hoy el concepto es una de las herramientas preferidas de políticos y celebridades para evitar dar explicaciones. Muchos se limitan a descartar una información negativa simplemente diciendo que son fake news. Es posible que en un tiempo veamos algo similar con el contenido generado por IA. Si no tenemos cuidado, la sospecha permanente por los contenidos artificiales puede llevarnos al otro extremo. No seria raro que empecemos a descartar todo aquello que no encaje con nuestro modo de ver el mundo solo por pensar que se trata de contenido artificial.

Enfoque Now es una plataforma digital dedicada a conectar e informar a la comunidad latina acerca de los acontecimientos que suceden a nivel local e internacional.

Mundo

Vectis, el drone furtivo de Lockheed Martin que podría redefinir el combate aéreo

La compañía estadounidense inicia la producción de Vectis, un sistema de aeronaves diseñado para operar junto a cazas de quinta generación y ejecutar misiones de ataque, reconocimiento y guerra electrónica

Publicado

on

El desarrollo de Lockheed Martin Vectis, el nuevo sistema de aeronaves de combate colaborativas (CCA) de Lockheed Martin Skunk Works, marca un avance significativo en la estrategia de superioridad aérea para las fuerzas armadas de Estados Unidos y sus aliados.

Este proyecto, que ya ha iniciado su fase de producción con componentes encargados y equipos dedicados a su ejecución, busca redefinir el concepto de poder aéreo mediante una plataforma ágil, personalizable y asequible, según informó Lockheed Martin.

La integración de Vectis con aeronaves de quinta generación y futuras plataformas representa uno de sus principales atributos. El sistema ha sido diseñado para operar de manera fluida junto a aviones tripulados como el F-35, así como en misiones autónomas, lo que permite avanzar hacia la visión de una “Familia de Sistemas” orientada a la supremacía aérea de próxima generación. La compatibilidad está garantizada por el uso de sistemas de control comunes, como el MDCX, que ya han demostrado su eficacia en operaciones previas de Lockheed Martin.

En cuanto a la flexibilidad operativa, Vectis está preparado para ejecutar una amplia gama de misiones, incluyendo ataques de precisión, reconocimiento y vigilancia (ISR), guerra electrónica y operaciones tanto ofensivas como defensivas en el dominio aéreo.

Esta versatilidad se ve reforzada por su capacidad de conectividad multidominio, lo que le permite funcionar de manera independiente o en coordinación con otras aeronaves, adaptándose a los requisitos de los teatros de operaciones del Indo-Pacífico, Europa y el Comando Central.

Sigue leyendo

Mundo

Seúl prueba un policía holográfico que reduce la delincuencia nocturna en Corea del Sur

Publicado

on

Desde octubre de 2024, el parque Jeo-dong 3 en Seúl ha sido escenario de una innovación tecnológica: un holograma 3D de un agente policial que aparece cada dos minutos entre las 19:00 y 22:00 horas. Su sola presencia ha logrado reducir los incidentes nocturnos en un 22%.

¿Cómo funciona?

  • El holograma se proyecta en tamaño real sobre una lámina acrílica.
  • Transmite mensajes de vigilancia y recuerda la presencia de cámaras inteligentes de CCTV.
  • No reemplaza a los agentes reales, pero disuade conductas violentas o desordenadas, especialmente en zonas afectadas por el consumo de alcohol.

Tecnología con impacto psicológico

“La guía holográfica sirve como herramienta inteligente que aumenta la sensación de seguridad y disuade el comportamiento rebelde”, explicó Ahn Dong-hyun, jefe de la comisaría de Jungbu.

Reacciones mixtas

  • Vecinos del parque afirman sentirse más seguros.
  • Algunos expertos lo ven como un “espantapájaros moderno” útil, mientras que otros critican su falta de capacidad para intervenir en emergencias reales.

Este sistema forma parte del programa “Creando Parques Seguros en Jungbu”, y podría convertirse en modelo para otras ciudades asiáticas que enfrentan desafíos similares.

Sigue leyendo