La Red Iberoamericana de Protección de Datos Personales (RIPD) lleva adelante una «acción coordinada» en relación con ChatGPT debido a que puede «conllevar riesgos para los derechos y libertades de los usuarios en relación con el tratamiento de sus datos personales» y desinformar mediante respuestas falsas o sesgadas, según indica un comunicado publicado en su sitio web.
La acción coordinada consiste en el inicio de una labor de supervisión y adopción de medidas coordinadas por parte de las autoridades que forman parte de la RIPD, sin que se brinden mayores detalles al respecto.
La RIPD agrupa a 16 autoridades de protección de datos de 12 países de la región
Este anuncio se da luego de que durante los últimos meses los reguladores europeos adoptaran numerosas medidas en relación con la herramienta de inteligencia artificial generativa, incluido su bloqueo en Italia (levantado luego de que OpenAI cumpla con las demandas del Garante para la protección de datos italiano), el inicio de una investigación de oficio por parte de la Agencia Española de Protección de Datos, y la creación de una fuerza de trabajo sobre ChatGPT por parte del Comité Europeo de Protección de Datos.
¿ChatGPT «desinforma» mediante respuestas falsas?
Las preocupaciones del foro regional que agrupa a las autoridades iberoamericanas en materia de privacidad se asemejan bastante a las ya esgrimidas por los reguladores europeos y se relacionan con la falta de transparencia en relación con la utilización de los datos que los usuarios ingresan a la herramienta, la posible transferencia no autorizada de los datos a terceras partes, los riesgos de brechas de datos, o la inexistencia de medidas dirigidas a prevenir el uso de ChatGPT por parte menores de edad.
No obstante, la RIPD menciona como riesgo añadido la «desinformación», indicando que ChatGPT «no tiene conocimientos y/o experiencia en un dominio específico, por lo que la precisión y profundidad de la respuesta puede variar en cada caso, y/o generar respuestas con sesgos culturales, raciales o de género, así como falsas«, debido a que para generar sus respuesta utiliza cantidades masivas de datos provenientes de internet.
Mientras toma medidas concretas, la RIPD recomienda a los usuarios que consulten la política de privacidad de la herramienta, valoren la conveniencia de introducir datos personales en la aplicación, ejerciten sus derechos en materia de protección de datos y verifiquen la veracidad y corrección de las respuestas otorgadas por ChatGPT.
ChatGPT ofrece «buenas prácticas» para mitigar los riesgos de desinformación
Recordemos que la aplicación de OpenAI cuenta con información de hasta finales de 2021, es decir, que no navega por la web a efectos de obtener información (característica que sí esta presente en la versión «beta» de ChatGPT Plus, lanzada hace sólo unos días), y que la propia herramienta en su sitio web indica que es una versión gratuita de desarrollo y que «puede generar información errónea acerca de personas, lugares o hechos«.
Por eso, en la página web de ChatGPT podemos encontrar una guía de «buenas prácticas» para su utilización segura, muchas de ellas dirigidas a evitar o identificar las respuestas falsas o sesgadas.
Entre ellas, recomienda adoptar la política «human in the loop», que implica siempre llevar a cabo una revisión humana de los resultados antes de ponerlos en práctica, remarcando que los usuarios deben ser informados de las limitaciones de la aplicación y deben tener acceso a la información necesaria para verificar los resultados.
OpenAI hace mucho énfasis en conocer las limitaciones de los modelos de lenguaje que funcionan a través de la inteligencia artificial, indicando que pueden generar respuestas erróneas o sesgadas, o contenido ofensivo, por lo cual deben moderarse las expectativas de los usuarios y comunicarse claramente las existencias de estas limitaciones.
Otro de los aspectos en los que hace foco OpenAI es en el «prompt engineering», esto es, la forma en que se le solicita a ChatGPT que haga algo en particular. Para evitar resultados erróneos es altamente recomendable hacer la solicitud de forma contextualizada, y para ello son especialmente útiles los ejemplos del comportamiento deseado por parte de la herramienta.