Connect with us

Tecnología

ChatGPT: cuál es la información que recolecta de los usuarios y por qué

La inteligencia artificial puede compartir los datos que obtiene con terceros.

Publicado

on

open ai

Las conversaciones que se tienen en ChatGPT no son totalmente privadas, la información que se comparte allí es fundamental para el sistema, porque le permite mejorar y aprender, lo que representa un riesgo para los datos personales que se envían en el chat.

OpenAI, empresa encargada de la inteligencia artificial, aseguró que revisa las conversaciones con los usuarios y toma los datos. Aunque, según ellos, con la idea de mejorar su funcionamiento y garantizar la seguridad.

“Como parte de nuestro compromiso con una IA segura y responsable, revisamos las conversaciones para mejorar nuestros sistemas y garantizar que el contenido cumpla con nuestras políticas y requisitos de seguridad”, afirma la compañía.

Algo contradictorio, porque al preguntarle directamente ChatGPT, la plataforma niega que almacene información.

“Como modelo de lenguaje, no tengo la capacidad de almacenar ni acceder a la información que se comparte en esta plataforma. Sin embargo, puedo asegurarte que la plataforma de OpenAI utiliza medidas de seguridad para proteger los datos que se intercambian en ella”, asegura el chatbot.

chat gpu

Qué información toma ChatGPT

En las políticas de privacidad de la inteligencia artificial se menciona una lista de los datos que recopila el sistema. Información que de caer en manos maliciosas representaría un problema grande de seguridad. Estos datos son:

– Nombres.

– Datos de contacto.

– Credenciales de la cuenta.

– Información de pago.

– Historial de transacciones.

– Entrada y carga de archivos.

– Protocolo de Internet.

– Tipo y configuración del navegador.

– Fecha y hora de las solicitudes.

– Forma de interacción con las webs de OpenAI.

– Sistema operativo.

– Tipo de dispositivo.

Si bien esta información es utilizada para mejorar la inteligencia artificial, según las políticas de la empresa dueña de la tecnología, los datos podrían ser compartidos con terceros en cuatro casos específicos:

– Vendedores y proveedores de servicios.

– Transferencias comerciales.

– Requisitos legales.

– Afiliados

En términos generales, estos actores externos son empresas que estén bajo el dominio de OpenAI, que requieran la información por temas legales, terceros con relaciones comerciales y en caso de que la compañía sea adquirida por otra.

Ante este panorama, lo mejor que se puede hacer como usuario es evitar compartir datos personales con el chatbot y en general con cualquier inteligencia artificial, ya que no es claro dónde pueda terminar y en manos de quién.

Fuga de datos en ChatGPT

OpenAI dio los detalles del fallo de seguridad que sufrió recientemente: los datos de los usuarios quedaron expuestos, así como parte de su historial de conversación con la plataforma.

Esto obligó a que la inteligencia artificial fuera cerrada durante un día para solucionar el problema, ya que durante nueve horas estuvo visible la información del 1,2% del total de suscriptores de ChatGPT Plus, que es la versión premium de la aplicación que tiene un costo de 20 dólares al mes.

Esta situación se dio a conocer cuando una serie de usuarios compartieron en Reddit que en sus perfiles del chatbot estaban apareciendo historiales de conversaciones que nunca tuvieron con la IA.

Si bien nunca pudieron acceder a esos chats, si fue una falla masiva que llevó a la suspensión de la plataforma durante ese día para solucionar el problema.

Luego la compañía aseguró que el error que llevó a esa situación también generó que los datos de algunos usuarios y sus métodos de pago quedaran visibles durante nueve horas. El motivo del problema fue un fallo en el software, pero no dieron muchos más detalles.

En el informe confirmaron que el error nunca llevó a que se pudieran ver los números completos de las tarjetas de crédito y que la probabilidad de que otro usuario haya visto los datos filtrados es muy baja.

Tecnología

Vogue publica su primera modelo generada por IA y desata debate global en la moda

Publicado

on

La edición impresa de agosto de Vogue marca un hito: por primera vez, una modelo completamente generada por inteligencia artificial protagoniza una campaña publicitaria. Se trata de Seraphinne Vallora, una creación fotorrealista desarrollada por Valentina González y Andreea Petrescu, fundadoras de una empresa especializada en avatares humanos para uso comercial.

Campaña: Dos páginas para la marca Guess, con Seraphinne en escenarios cotidianos, como un café y una pared azul, vestida con prendas de verano.
Identificación: Solo una línea diminuta revela que es una modelo artificial: “Seraphinne Vallora on AI”.
Proceso creativo: Involucra cinco empleados y puede tardar hasta un mes. Las tarifas alcanzan cifras de seis dígitos.


Controversia: Modelos reales y activistas laborales critican el desplazamiento humano y la perpetuación de estándares de belleza inalcanzables.

Felicity Hayward y Sara Ziff advierten que la campaña responde más a recortes de costos que a innovación.

Las creadoras admiten que las imágenes de IA con tonos de piel diversos reciben menos interacción, lo que influye en sus publicaciones.

Vogue China, Italia y Portugal ya han experimentado con portadas generadas por IA. Además, OpenAI y Condé Nast anunciaron una alianza para integrar contenido en ChatGPT.

Sigue leyendo

Ciencia

La mujer más rica del mundo inaugura una escuela de medicina en EE.UU.

Publicado

on

Alice L. Walton, la mujer más rica del mundo y heredera del imperio Walmart, inauguró el 14 de julio la Escuela de Medicina Alice L. Walton (AWSOM) en Bentonville, Arkansas, con el objetivo de transformar la educación médica en Estados Unidos.

AWSOM propone un modelo académico centrado en medicina preventiva, salud integral y atención comunitaria, alejándose del enfoque tradicional biomédico. El plan de estudios incluye biología clásica reforzada con nutrición, arte, humanidades y tecnología, con más de 50 horas prácticas en cocina saludable, talleres agrícolas y análisis artístico en el Museo Crystal Bridges. Además, se promueve el uso de inteligencia artificial y drones para mejorar el acceso a medicamentos en zonas rurales.

La escuela cuenta con alianzas estratégicas con la Universidad de Stanford, el sistema de salud Mercy y el Heartland Whole Health Institute. Walton, quien sobrevivió a un grave accidente automovilístico en los años 80, impulsa este proyecto como respuesta a las deficiencias del sistema de salud estadounidense. Las primeras cinco generaciones de estudiantes tendrán matrícula cubierta, gracias a su respaldo financiero.

AWSOM busca ser un modelo replicable y sostenible, que forme médicos capaces de abordar los factores conductuales responsables del 60% de las muertes prematuras en EE.UU. Con esta iniciativa, Walton apuesta por una medicina más humana, preventiva y conectada con las comunidades.

Sigue leyendo