Desde el pasado verano, Worldcoin, la iniciativa de criptomonedas dirigida por el creador de OpenAI, Sam Altman, está desplegando en todo el mundo a sus comerciales. El repunte de la cotización de esta moneda virtual ha hecho que las colas delante de las terminales lectoras del iris de quienes acuden atraídos por la promesa de recibir a cambio un dinero fácil estén siendo en los últimos días especialmente nutridas. En su argumentario promocional, Worldcoin alerta de los peligros de confusión o robo de identidad en el entorno de la IA, y para protegerse de ellos ofrece como instrumento defensivo ceder (a la empresa del propio creador de OpenAI) la lectura de un dato biométrico estrictamente personal, como es la imagen del iris del ojo. A cambio, se recibirá una compensación en la moneda virtual (impulsada por el propio Altman), ampliable si se recluta a otros candidatos a sumarse a su criptoproyecto, y aún más si la expectación generada por esta estrategia de captación de la empresa hace aumentar la cotización de su propio producto.
La operación en conjunto tiene todos los componentes de una burbuja especulativa autoalimentada. Pero más allá de las dudas que pueda suscitar, no muy distintas de las de cualquier engranaje que prometa crear una alternativa a la economía monetaria y, aún más, crear riqueza mágicamente, la forma recolección de datos personales de este entramado es en sí misma preocupante. La Agencia Española de Protección de Datos está analizado cuatro denuncias, la Autoritat Catalana de Protecció de Dades emitió ayer una nota alertando de los riesgos y algunos países han vetado directamente la actividad de Worldcoin. Los datos biométricos (huellas dactilares, imágenes del iris o del rostro tratadas para ser susceptibles de reconocimiento facial), que permiten la «identificación unívoca» de las personas, son objeto de especial protección según el Reglamento General de Datos Personales de la UE, y está prohibido su tratamiento excepto si el interesado da su «consentimiento explícito», informado «en forma concisa, transparente, inteligible» de las condiciones en que se usarán sus datos y siempre con garantías de su protección. La fórmula de reclutamiento de un público especialmente joven en pasillos de centros comerciales no parece que ofrezca excesivas garantías de que todo eso suceda.
Quienes están haciendo cola estos días para dejar que se escaneen sus ojos argumentan que cualquier empresa de comunicaciones que utiliza el reconocimiento facial o la huella dactilar en sus móviles dispone de este tipo de información, y sin pagar por ella. Eso es cierto: y un exponente de hasta qué punto no somos conscientes del valor de aquello que confiamos a terceros. Con todo, cabe recordar que, como dice la ley de protección de datos personales española de 2018, compartir datos personales con plataformas tecnológicas «permite nuevos y mejores servicios»: acceso a la información que nos interesa, al estado del tráfico en las carreteras por las que nos movemos, a las condiciones meteorológicas del lugar donde nos encontramos… Es un intercambio de servicios en el que la claridad sobre qué se ofrece y qué se obtiene a cambio es imprescindible. Y en este caso, ni lo uno ni lo otro parecen especialmente transparentes.