Connect with us

Tecnología

ChatGPT: cuál es la información que recolecta de los usuarios y por qué

La inteligencia artificial puede compartir los datos que obtiene con terceros.

Publicado

on

open ai

Las conversaciones que se tienen en ChatGPT no son totalmente privadas, la información que se comparte allí es fundamental para el sistema, porque le permite mejorar y aprender, lo que representa un riesgo para los datos personales que se envían en el chat.

OpenAI, empresa encargada de la inteligencia artificial, aseguró que revisa las conversaciones con los usuarios y toma los datos. Aunque, según ellos, con la idea de mejorar su funcionamiento y garantizar la seguridad.

“Como parte de nuestro compromiso con una IA segura y responsable, revisamos las conversaciones para mejorar nuestros sistemas y garantizar que el contenido cumpla con nuestras políticas y requisitos de seguridad”, afirma la compañía.

Algo contradictorio, porque al preguntarle directamente ChatGPT, la plataforma niega que almacene información.

“Como modelo de lenguaje, no tengo la capacidad de almacenar ni acceder a la información que se comparte en esta plataforma. Sin embargo, puedo asegurarte que la plataforma de OpenAI utiliza medidas de seguridad para proteger los datos que se intercambian en ella”, asegura el chatbot.

chat gpu

Qué información toma ChatGPT

En las políticas de privacidad de la inteligencia artificial se menciona una lista de los datos que recopila el sistema. Información que de caer en manos maliciosas representaría un problema grande de seguridad. Estos datos son:

– Nombres.

– Datos de contacto.

– Credenciales de la cuenta.

– Información de pago.

– Historial de transacciones.

– Entrada y carga de archivos.

– Protocolo de Internet.

– Tipo y configuración del navegador.

– Fecha y hora de las solicitudes.

– Forma de interacción con las webs de OpenAI.

– Sistema operativo.

– Tipo de dispositivo.

Si bien esta información es utilizada para mejorar la inteligencia artificial, según las políticas de la empresa dueña de la tecnología, los datos podrían ser compartidos con terceros en cuatro casos específicos:

– Vendedores y proveedores de servicios.

– Transferencias comerciales.

– Requisitos legales.

– Afiliados

En términos generales, estos actores externos son empresas que estén bajo el dominio de OpenAI, que requieran la información por temas legales, terceros con relaciones comerciales y en caso de que la compañía sea adquirida por otra.

Ante este panorama, lo mejor que se puede hacer como usuario es evitar compartir datos personales con el chatbot y en general con cualquier inteligencia artificial, ya que no es claro dónde pueda terminar y en manos de quién.

Fuga de datos en ChatGPT

OpenAI dio los detalles del fallo de seguridad que sufrió recientemente: los datos de los usuarios quedaron expuestos, así como parte de su historial de conversación con la plataforma.

Esto obligó a que la inteligencia artificial fuera cerrada durante un día para solucionar el problema, ya que durante nueve horas estuvo visible la información del 1,2% del total de suscriptores de ChatGPT Plus, que es la versión premium de la aplicación que tiene un costo de 20 dólares al mes.

Esta situación se dio a conocer cuando una serie de usuarios compartieron en Reddit que en sus perfiles del chatbot estaban apareciendo historiales de conversaciones que nunca tuvieron con la IA.

Si bien nunca pudieron acceder a esos chats, si fue una falla masiva que llevó a la suspensión de la plataforma durante ese día para solucionar el problema.

Luego la compañía aseguró que el error que llevó a esa situación también generó que los datos de algunos usuarios y sus métodos de pago quedaran visibles durante nueve horas. El motivo del problema fue un fallo en el software, pero no dieron muchos más detalles.

En el informe confirmaron que el error nunca llevó a que se pudieran ver los números completos de las tarjetas de crédito y que la probabilidad de que otro usuario haya visto los datos filtrados es muy baja.

Mundo

Vectis, el drone furtivo de Lockheed Martin que podría redefinir el combate aéreo

La compañía estadounidense inicia la producción de Vectis, un sistema de aeronaves diseñado para operar junto a cazas de quinta generación y ejecutar misiones de ataque, reconocimiento y guerra electrónica

Publicado

on

El desarrollo de Lockheed Martin Vectis, el nuevo sistema de aeronaves de combate colaborativas (CCA) de Lockheed Martin Skunk Works, marca un avance significativo en la estrategia de superioridad aérea para las fuerzas armadas de Estados Unidos y sus aliados.

Este proyecto, que ya ha iniciado su fase de producción con componentes encargados y equipos dedicados a su ejecución, busca redefinir el concepto de poder aéreo mediante una plataforma ágil, personalizable y asequible, según informó Lockheed Martin.

La integración de Vectis con aeronaves de quinta generación y futuras plataformas representa uno de sus principales atributos. El sistema ha sido diseñado para operar de manera fluida junto a aviones tripulados como el F-35, así como en misiones autónomas, lo que permite avanzar hacia la visión de una “Familia de Sistemas” orientada a la supremacía aérea de próxima generación. La compatibilidad está garantizada por el uso de sistemas de control comunes, como el MDCX, que ya han demostrado su eficacia en operaciones previas de Lockheed Martin.

En cuanto a la flexibilidad operativa, Vectis está preparado para ejecutar una amplia gama de misiones, incluyendo ataques de precisión, reconocimiento y vigilancia (ISR), guerra electrónica y operaciones tanto ofensivas como defensivas en el dominio aéreo.

Esta versatilidad se ve reforzada por su capacidad de conectividad multidominio, lo que le permite funcionar de manera independiente o en coordinación con otras aeronaves, adaptándose a los requisitos de los teatros de operaciones del Indo-Pacífico, Europa y el Comando Central.

Sigue leyendo

Mundo

Seúl prueba un policía holográfico que reduce la delincuencia nocturna en Corea del Sur

Publicado

on

Desde octubre de 2024, el parque Jeo-dong 3 en Seúl ha sido escenario de una innovación tecnológica: un holograma 3D de un agente policial que aparece cada dos minutos entre las 19:00 y 22:00 horas. Su sola presencia ha logrado reducir los incidentes nocturnos en un 22%.

¿Cómo funciona?

  • El holograma se proyecta en tamaño real sobre una lámina acrílica.
  • Transmite mensajes de vigilancia y recuerda la presencia de cámaras inteligentes de CCTV.
  • No reemplaza a los agentes reales, pero disuade conductas violentas o desordenadas, especialmente en zonas afectadas por el consumo de alcohol.

Tecnología con impacto psicológico

“La guía holográfica sirve como herramienta inteligente que aumenta la sensación de seguridad y disuade el comportamiento rebelde”, explicó Ahn Dong-hyun, jefe de la comisaría de Jungbu.

Reacciones mixtas

  • Vecinos del parque afirman sentirse más seguros.
  • Algunos expertos lo ven como un “espantapájaros moderno” útil, mientras que otros critican su falta de capacidad para intervenir en emergencias reales.

Este sistema forma parte del programa “Creando Parques Seguros en Jungbu”, y podría convertirse en modelo para otras ciudades asiáticas que enfrentan desafíos similares.

Sigue leyendo