Roomba, ChatGPT y la ética sobre la recopilación de datos.


No nos sorprende después del post anterior. En diciembre de 2022, MIT REVIEW, publica en un artículo de Eileen Guo como las imágenes de una mujer en su baño grabadas por una Roomba han acabado publicándose en Facebook.

 En el texto no se destapa ningún secreto, ya que las imágenes fueron descubiertas en la red social en 2022. Guo destapa en un buen artículo de investigación, como las imágenes realmente fueron filtradas por recopiladores de datos venezolanos. Estos trabajadores, al igual que los contratados por Sana en Kenia para mejorar el etiquetado de la información recabada por ChatGPT, suelen trabajar en condiciones precarias para aleccionar debidamente a los algoritmos.

En todo caso, lo que realmente importa es ser consciente de que muchos de los aparatos tecnológicos (y aplicaciones) que se han convertido en habituales en nuestros hogares están siendo entrenados para saber más de nuestras costumbres, entornos o aficiones para poder vender o generar experiencias a medida.

Aunque es cierto que muchas veces ese intercambio de datos usuario-empresa es consciente - se realizan contratos directos a través de un contrato como probador-, poco se conoce sobre cómo se realizan este tipo de estudios: si realmente son claros en sus objetivos, si se recogen datos de todos los usuarios o solo de los contratados para ello, si se venden o no a terceros, si se quedan en el país en el que se realizan los estudios, etc., etc. 

Tendremos que ser más conscientes y críticos, exigir protección legal a las autoridades nacionales e internacionales y demandar un uso ético por parte de las empresas.

+ info