Acepto

COOKIES

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para anónimamente facilitarle la navegación y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información

Privacidad diferencial, reforzando la confianza para impulsar la economía del dato

  • Delfos Research

Privacidad

La explotación de datos personales representa una gran oportunidad. Por ejemplo, ahora podemos recoger información precisa sobre nuestros estilos de vida para estudiar cómo se relaciona con distintas enfermedades, lo cual nos permitirá movernos hacia una medicina preventiva.

También podemos analizar nuestros desplazamientos para mejorar el tráfico de las ciudades… Además, como consumidores, las marcas podrán cubrir nuestras demandas de inmediatez y personalización o recomendarnos que producto elegir en un mercado que se caracteriza por una oferta abrumadora. 

En definitiva, podemos encontrar soluciones a retos complejos explotando un recurso que ahora es abundante: los datos personales.

El lado oscuro de la explotación de estos datos es que, aunque un dato aislado parezca inocuo, cuando se combina con otros datos y se pasa por el tamiz de los algoritmos el resultado puede ser intrusivo, discriminatorio o excluyente.  Por ejemplo, hay un caso que ha alimentado la imaginación de los directores de marketing de los grandes supermercados sobre lo que pueden llegar a saber de nosotros. Se trata de un hombre que se entera por el cajero del supermercado de que su mujer está embarazada. Y el supermercado lo sabe no porque se lo haya dicho la mujer, sino porque han analizado sus hábitos de compra, sus búsquedas, etc. Lo que este ejemplo nos dice, es que todos esos datos pueden revelar información que no queremos hacer pública como nuestra orientación sexual, creencias religiosas, ideología política...

El problema de fondo no es tanto que cedas tus datos, sino cuál es el uso que se va a hacer con ellos cuando los transformen en información unos algoritmos que para el común de los mortales son magia.

Partimos de que no hay marcha atrás, que toda esa tecnología que nos facilita la vida, y a la que no pensamos renunciar, también deja un rastro de datos personales susceptibles de ser explotados. La pregunta relevante por tanto es: ¿cómo conseguir los beneficios sin que se produzca una pérdida de privacidad?

Algunas empresas, en el mejor de los casos, buscan anonimizar los datos eliminando información que pueda identificarnos. Esto en general es suficiente. Pero, dependiendo de la naturaleza de los datos que se manejen, habrá que ir un paso más allá. Hay una anécdota de un gobernador de Estados Unidos que, tras impulsar una ley para anonimizar datos médicos, recibió a los pocos días una carta con su historial médico en el buzón. Alguien, combinando su código postal con otros datos, había sido capaz de identificarlo.

La buena noticia es que se trata de un problema conocido y durante los últimos años se ha trabajado sobre ello. Así, desde 2005, se han producido avances en una disciplina estadística que busca maximizar la información de un grupo de individuos minimizando el conocimiento particular de cada uno de ellos. Aplicado al caso que nos ocupa es lo que se denomina “privacidad diferencial”. Y esta aproximación es la que permite, por ejemplo, que podamos ceder nuestra información genética para investigar el cáncer sin que ni tan siquiera los investigadores sepan que participas en el estudio.

Pero, ¿en qué cosiste? Nadie mejor que Cynthia Dwork, una de las mentes detrás de esta técnica estadística, para explicarlo. Supongamos que queremos saber si en la universidad los estudiantes copian en los exámenes. Para ello preguntamos a los alumnos, pero lo hacemos del siguiente modo: les pedimos que respondan a un cuestionario pero que antes de empezar tiren una moneda al aire sin que nadie les vea. Si sale cara dicen la verdad, si sale cruz vuelven a tirar la moneda… y si vuelve a salir cruz entonces mienten. Cuando todos los alumnos han llevado a cabo el cuestionario, aplicando ingeniería inversa se puede saber, con escaso margen de error, el grado en el que los alumnos copian, pero sin saber si un alumno concreto lo ha hecho.

Si trasladamos este ejemplo a la explotación de datos personales por parte de las empresas, lo que haríamos sería meter en origen aleatoriamente "ruido" – información falsa o incompleta - en los datos capturados y almacenados por las empresas. Luego, después de aplicar ingeniería inversa, podrán ser analizados llegando a unos resultados similares a los que hubiéramos obtenido sin haberlo hecho. ¿Y por qué es importante esto? Porque se alcanza privacidad de extremo a extremo. Generar datos aleatorios en origen evita que la propia empresa o un posible hacker sepa si la información almacenada sobre uno es veraz. Por otro lado, también evita que una vez anonimizada esta, podamos volver a ser identificados como en el caso del historial médico del gobernador antes referido.

La privacidad diferencial es algo que ideó Microsoft y que utilizan otros gigantes de la industria como Apple, pero no está al alcance de cualquier empresa. Se trata de un asunto candente en la industria porque afecta no sólo a aquellos que desarrollan algoritmos, que ahora deben replantearse cómo los diseñan, sino también para los que tienen la intención de monetizar el dato a través de plataformas de venta de datos, APIs o en forma de insights. Nos encontramos en definitiva con un enfoque diferente que requiere un esfuerzo significativo para aquellas organizaciones que quieran adoptarlo.

Pero más allá de soluciones ingeniosas como la privacidad diferencial, encontrar una respuesta a la difícil pregunta de cómo beneficiarnos de la información personal sin renunciar a parte de nuestra privacidad va a requerir un cambio de mentalidad por parte de todos los agentes: empresas, particulares… y reguladores.

El regulador ya ha realizado ese cambio y lo ha plasmado en la nueva ley de protección de datos -GDPR, en sus siglas en inglés- que entrará en vigor en 2018. En ella busca el difícil equilibrio entre los beneficios y riesgos de los que venimos tratando. Y lo hace razonablemente bien, exigiendo que la privacidad entre por diseño en la prestación de los servicios de las empresas o clarificando (si es que alguien tenía dudas) que los datos personales son nuestros y podemos llevárnoslos a otra parte… En definitiva, estableciendo las reglas del juego de un nuevo marco competitivo, el de la economía del dato.

Ahora es el turno de particulares y empresas. Nosotros, como particulares, debemos adquirir una mayor comprensión sobre cómo puede afectarnos la explotación de nuestros datos. No, no tenemos que saber de seguridad informática, ni ser capaces de leer unas políticas de privacidad pensadas para un abogado con mucho tiempo libre. No, al final tendremos que saber en quién podemos confiar. ¿Y en quién confiarías tú, en alguien que arroja luz sobre lo que hace o en quien la apaga?

Por eso, las empresas deben sacar su política de privacidad del pie de página donde se encuentran actualmente y elevarlas a su responsabilidad social corporativa, ser más trasparentes, dejarnos el control sobre nuestros datos, establecer un código ético que abarque también a sus algoritmos … Y con ello ganarse nuestra confianza.

Nos dirigimos inexorablemente a un mundo que pasa por la explotación de nuestros datos personales. Hagamos que sea en nuestro beneficio. La privacidad diferencial no es la panacea que resuelve todo, pero ilustra como trabajando en la construcción de una mayor confianza seguro que lo conseguimos.

Fernando Maldonado. Analista principal de Delfos Research