ChatGPT Sabe Todo Esto De Mí, Pero No Entiende Nada - LobosNews

ChatGPT sabe todo esto de mí, pero no entiende nada

Esta inteligencia artificial tiene acceso a datos personales, según la información que haya de una persona en internet. (Pexels)
Esta inteligencia artificial tiene acceso a datos personales, según la información que haya de una persona en internet. (Pexels)

Los modelos de lenguaje, como ChatGPT, están entrenados para brindar información según los datos con los que han sido entrenados y los que están disponibles en internet. Lo que abre la puerta a un acceso privado, en el que la información personal puede estar vulnerable si se sabe buscar.

Esto representa un riesgo de ciberseguridad en tiempos en los que los datos son el diamante en bruto que todos quieren obtener.

Aunque al mismo tiempo, la inteligencia artificial sabe todo y conoce poco. La precisión de la información está limitada a muchas condiciones, que llevan a generar contenido falso, falto de contexto y lejano de la realidad. Creando un resultado difícil de evaluar, porque es tan convincente que parece cierto, pero tan desproporcionado que no tiene sentido.

Te puede interesar: Microsoft lleva su inteligencia artificial a teclados de iPhone y Android

Información personal o chisme

Melissa Heikkila, periodista de MIT Techonolgy Review, realizó una investigación sobre sí misma en ChatGPT y en BlenderBot 3, este último un chatbot de Meta. En ella encontró que su nombre no representaba ninguna importancia para la inteligencia artificial, es decir, que no tenía información sobre ella, más allá de datos sobre su apellido.

Pero al intentar con el nombre de su jefe, Mat Honan, y que es editor del medio, el resultado fue muy diferente.

Al tener un perfil más alto y haber escrito artículos en otros medios de comunicación, tener mayor presencia en redes sociales y haber sido referenciado en otras páginas, la inteligencia artificial dio una primera información sobre un texto que él escribió para Wired en 2012, aunque afirmando que había hackeado a Barack Obama y Bill Gates, algo que no hizo, pero sí escribió sobre fallas de seguridad de Apple que llevaron a esta situación. Un potencial peligro.

Esta inteligencia artificial tiene acceso a datos personales, según la información que haya de una persona en internet. (Pexels)
Esta inteligencia artificial tiene acceso a datos personales, según la información que haya de una persona en internet. (Pexels)

Te puede interesar: Usan ChatGPT para imitar a Steve Jobs

Al insistir más, el chatbot le dio información mucho más privada: Honan tiene una esposa, dos hijas y no estaba seguro si tenía o no mascota, ya que contaba con datos sobre su amor a los animales, gracias a publicaciones suyas en redes sociales.

Después le dio la dirección de su trabajo, un número de teléfono, un número de tarjeta de crédito, entre otros datos relacionados con él, pero que en su mayoría no eran correctos.

El motivo de estos resultados se basan en la información que tiene Honan en su perfil de Twitter y LinkedIn, como su lugar de residencia y de trabajo, lo que aparece en las búsquedas en Google y los artículos que han escrito sobre él o lo han referenciado.

“Varias de las respuestas generadas por GPT-3 no eran del todo correctas. Pero la mayoría están bastante cerca, y algunos dan en el clavo. Es un poco desconcertante. Pero estoy seguro de que la IA no sabe dónde vivo, por lo que no estoy en peligro inmediato”, comentó Mat Honan.

Te puede interesar: LinkedIn integra ChatGPT para crear los perfiles

Esta inteligencia artificial tiene acceso a datos personales, según la información que haya de una persona en internet. (Pexels)
Esta inteligencia artificial tiene acceso a datos personales, según la información que haya de una persona en internet. (Pexels)

El peligro de esta información

Está claro que los datos personales son la clave para obtener dinero, acceso a cuentas, realizar engaños y cometer una gran variedad de delitos en la actualidad. Por eso la preocupación sobre la información a la que puedan acceder los modelos de lenguaje como ChatGPT.

Florian Tramèr, profesor de informática en ETH Zürich, asegura que esta situación es una “bomba de tiempo” por la afectación de la privacidad en línea y riesgos legales y de seguridad, ya que la inteligencia artificial está teniendo acceso a datos confidenciales, pero también está generando contenido engañoso al no tener la información real o completa.

En el caso de OpenAI, la empresa duela de GPT, asegura que se “han tomado medidas para eliminar las fuentes conocidas que agregan información sobre las personas de los datos de entrenamiento y ha desarrollado técnicas para reducir la probabilidad de que el modelo produzca información personal”.

Pero para Tramer “incluso si entrenas a un modelo con las garantías de privacidad más estrictas que podemos pensar hoy en día, en realidad no vas a garantizar nada”. Por lo que esta preocupación está abierta y la responsabilidad será cerrar ese acceso que está oscila entre el engaño y la realidad.

Fuente: InfoBae

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.