Patrones engañosos, opciones enterradas en otras opciones, consentimientos conseguidos a partir de disfrazar botones o, sencillamente, excluirlos son algunas de las prácticas más comunes hoy de las grandes compañías para usar los datos de sus usuarios sin que estos se enteren
Cuando Nathalie Nahai quiso cerrar su cuenta de Facebook hace unos años, fue un proceso traumático. «Usaron las relaciones y conexiones que tenía para decir: “¿Estás segura de que quieres irte? Si te vas, no recibirás actualizaciones de esta persona”, y luego me mostraron las fotos de algunos de mis amigos cercanos. Emplearon un lenguaje que, en mi opinión, es coerción. Hacen que sea sicológicamente doloroso que te vayas».
Lo descrito por Nahai, quien es autora del libro Redes de influencia: la sicología de la persuasión en línea, resume en buena medida un método que hoy se emplea mucho a la hora del diseño de sitios web, definido en inglés como dark pattern o patrón oscuro.
La revista Wired, así como otros especialistas, definen este tipo de prácticas como coercitivas y, lo que es peor, que cuentan con el pláceme de la mayoría de los usuarios de redes sociales y otros sitios web, quienes no tienen la menor idea de la manipulación a la que se enfrentan.
Y es que, a partir de aceptar los molestos cuadros de diálogo que se abren en los sitios web o aplicaciones que se quieren utilizar, muchas veces los usuarios consienten el uso de sus datos personales y de otro tipo, los cuales son vendidos luego a compañías externas.
A lo largo de la última década Facebook ha atravesado varias tormentas relacionadas con la seguridad y privacidad de los datos de sus usuarios. Parece, por lo sucedido recientemente con Cambridge Analytica, que esta tendencia continuará.
Sin embargo, más allá de ello, la gran red azul también ha debido reorganizarse luego de que en 2010 la Electronic Frontier Foundation la denunciara por su molesta e intrusiva interfaz. La acusación, que desató un gran debate, se define con un término que desde entonces se aplica para este tipo de prácticas: Privacy Zuckering —en alusión a Mark Zuckerberg, fundador de Facebook.
La web Dark Patterns define al Privacy Zuckering como el modo en el que un usuario termina compartiendo más información privada de la que hubiera deseado. Y es que en 2010 la forma en que el usuario controlaba su privacidad en Facebook no era muy clara. Hoy, ciertamente, todo es más fácil si se accede a la configuración y se dedica un tiempo a revisar sus múltiples opciones, todas explicadas.
Sin embargo, las prácticas de usar trucos para abrumar al usuario no han cesado. Una ventana emergente reciente de Twitter decía: «Tú tienes el control», antes de invitar a «activar anuncios personalizados» para «mejorar los que ves» en la plataforma. ¿No desea anuncios dirigidos mientras se desplaza hacia el destino? Bien. Puede «mantener anuncios menos relevantes», lo que, a fin de cuentas, son anuncios. Y la forma en que interactúe el usuario con ellos determinará los siguientes anuncios que recibirá.
Cuando Instagram reitera muchas veces al usuario que active las notificaciones y no presenta una opción para rechazar el anuncio, estamos ante un patrón oscuro. Cuando LinkedIn muestra parte de un mensaje InMail en tu correo electrónico, pero obliga a visitar la plataforma para leer más, estamos ante otro patrón oscuro. Cuando Facebook te redirige para cerrar sesión si intentas eliminar o desactivar tu cuenta, ese también es un patrón oscuro.
De acuerdo con Wired, los patrones oscuros aparecen en toda la web, lo que incita a las personas a suscribirse a boletines informativos, agregar artículos a sus carritos en páginas de compra, o anotarse en servicios que quizá ni le interesen.
Al respecto Colin Gray, investigador de interacción humano-computadora en la Universidad de Purdue, en Indiana, Estados Unidos, advierte que esta es una práctica particularmente insidiosa «cuando decides qué derechos de privacidad regalar, de qué datos estás dispuesto a desprenderte». Gray ha estudiado patrones oscuros desde 2015. Él y su equipo de investigación han identificado cinco tipos básicos que definen como: fastidio, obstrucción, furtividad, interferencia de interfaz y acción forzada. Todos aparecen en los controles de privacidad de las diferentes aplicaciones y sitios web.
Otros investigadores han subrayado la disonancia cognitiva entre las grandes propuestas de Silicon Valley hacia la privacidad y las herramientas para modular estas opciones, que siguen llenas de lenguaje confuso, diseño manipulador y otras características pensadas para extraer más datos de los usuarios.
Estos problemas de privacidad no son únicos de las redes sociales. En Europa está en vigor desde 2018 el Reglamento general de protección de datos, que ordena a los sitios web solicitar de los internautas su consentimiento para usar ciertos tipos de datos. Y así sucede hoy. Entras a un sitio y este te pide que aceptes sus condiciones de uso. A veces, las opciones aparecen detalladas y explicadas. En otros momentos, es sencillamente un botón de aceptar, sin una opción para rechazar o saber de qué van esas condiciones y recopilaciones de datos. En Estados Unidos se introdujo una ley similar el año pasado, que todavía no ha sido aprobada.
El problema es que se vuelve muy difícil definir un patrón oscuro. «Todo diseño tiene un nivel de persuasión», afirma Víctor Yocco, autor del libro Diseño para la mente: siete principios sicológicos del diseño persuasivo. «Por definición, el diseño alienta a alguien a usar un producto de una manera particular, lo cual no es inherentemente malo. La diferencia, dice Yocco, es que, si estás diseñando para engañar a la gente, eres un idiota».
Muchos de estos patrones oscuros se utilizan para mejorar métricas que indican éxito, como el crecimiento del usuario o el tiempo invertido en algo.
Gray cita un ejemplo de la aplicación para teléfonos inteligentes Trivia Crack, que insta a sus usuarios a jugar otro juego cada dos o tres horas. Las plataformas de redes sociales han utilizado ese tipo de notificaciones durante años para mantener al usuario enganchado.
«Sabemos que si le damos a la gente cosas por las que deslizar el dedo o actualizaciones de estado, es más probable que regresen una y otra vez. Eso puede llevar a comportamientos compulsivos», afirma por su parte Yocco.
Los patrones más oscuros, sin embargo, aparecen cuando el usuario trata de desactivar o eliminar la cuenta de una red social. En primer lugar, la opción no aparece fácil. En Instagram, por ejemplo, está enterrada en algún lugar del menú Editar perfil, y viene con una serie de preguntas muy molestas: «por qué te vas… ¿te entretienes mucho?... intenta apagar las notificaciones… tómate un descanso…», son algunas de las sugerencias.
Nathalie Nahai considera que esa práctica pone obstáculos al objetivo que el usuario espera conseguir para que desista de ello. Por ahora no parece que esta práctica vaya a cambiar, solo se reinventa cada día más. Toca al usuario ser cada día más consciente de ello, y poner a buen recaudo su privacidad.
A partir de la nueva visualidad adoptada por Juventud Rebelde desde el pasado 13 de agosto, esta sección cambió de nombre, pero no de objetivo. Código fuente mantendrá su enfoque en temas relacionados con la informática y las nuevas tecnologías de manera general, para llevarles cada semana temas que inviten a la reflexión y contribuyan a la cultura general integral de nuestros jóvenes.
Aprovecho la ocasión para invitar a nuestros lectores a sumarse al debate de los temas aquí tratados en el apartado digital de esta sección, que pueden visitar directamente desde el código QR que acompaña a la página. Asimismo, no duden en enviar correos electrónicos con temas que les interesen.