Vivimos en el mundo de la inmediatez, donde la tecnología forma parte intrínseca de nuestras vidas , siendo un órgano más de nuestro cuerpo. Nos levantamos y nos acostamos mirando nuestro móvil, desayunamos, comemos y cenamos junto a él.
Lucia Komljen, Socio-Cultural Research at Telefónica Innovation y autora del estudio»Beyond ‘problems to solve’ innovation: The value of exploring and resolving tensions», cuenta la historia sobre un grupo de estudiantes de la Universidad Nacional de Taiwán que crearon unos polos con muestras de agua de fuentes contaminadas que introdujeron en moldes.
Con esta acción pretendían sensibilizar a la sociedad sobre la contaminación y la gravedad de esta situación. Komljen entiende este caso como una analogía de la dualidad existente en el 5G, al realidad virtual y aumentada, la inteligencia artificial, etc. «Por fuera parecen prometedores y llenos de potencial , pero si los observas con detenimiento puedes ver algo acechando bajo la superficie», explica en el vídeo.
Vídeo: Raquel Navarrete
En torno a esta situación en Japón surge el síndrome Hikikomori, un fenómeno creciente en los últimos años. Se trata de personas que rechazan cualquier tipo de comunicación física, de manera que su mundo gira en torno al uso del Internet . Cientos de mujeres y hombres deciden, por voluntad propia, abandonar la sociedad y autorrecluirse en sus habitaciones, junto con sus móviles, ordenadores, tabletas, etc.
La hiperconexión está a la orden del día y, por lo tanto, puede resultar complicado desconectar. Lars Stalling, que forma parte del equipo de Core Innovation Telefónica, cuenta a Think Big que la cuestión reside en si es una peculiaridad de la sociedad japonesa o se trata de «una previsión de lo que va a pasar en el mundo dentro de unos años «.
Las dos caras de la tecnología
Todo es bueno hasta que comenzamos a hacer un uso inapropiado de ello. Por un lado, las TICs son beneficiosas. Han traído consigo diversos adelantos que nos han ayudado a avanzar como sociedad. Uno de los casos más recientes ha sido la llegada de la red 5G que, por ejemplo, nos está acercando a realizar operaciones de alta precisión en remoto desde cualquier lugar del planeta. Esto es debido gracias a la mayor velocidad y menor latencia de la red, algo que podemos ver, también, en los coches conectados, la realidad aumentada y virtual, el gaming , etc.
Sin embargo, la otra cara de la moneda es que vivimos en una sociedad donde es complicado tener privacidad, nuestra vida está expuesta más que nunca ante todo el mundo . La gran mayoría de la población tiene una huella en Internet, bien sea por Facebook, LinkedIn, un portal de empleo, etc. Como a menudo defiende el presidente de Telefónica, José María Álvarez Pallete: « los datos de las personas son como la dignidad : no pueden ser expropiados «.
Foto: Johan Mouchet
De igual manera, cuando navegamos por cualquier página de Internet y aceptamos las cookies : ¿sabes qué es lo que estás aceptando? o ¿a dónde van a ir a parar tus datos? Según Stalling, la clave reside en «tener conciencia sobre el impacto de la tecnología en nuestras vidas» además de un «espíritu crítico para detectar los efectos negativos «, continúa.
«Usamos cookies en este sitio para mejorar la experiencia del usuario. Al hacer clic en cualquier enlace de esta página nos da su consentimiento para utilizar cookies» . Este es uno de los cientos de mensaje que nos podemos encontrar continuamente cada vez que accedemos a una página web (incluido esta).
Ilustración: Niko Gómez
Las cookies son fragmentos de código que los sitios webs guardan en el navegador web del usuario. ¿El objetivo? Mejorar nuestra experiencia como usuario a partir de los datos que les cedemos. Por ejemplo, quieres comprarte un coche y buscas información en Google. A partir de ese momento, es posible que empiecen a aparecerte diferentes anuncios sobre ese coche en otras páginas webs en las que estés navegando.
Hay que distinguir entre dos tipos de cookies : por un lado, existen cookies que son necesarias para poder navegar por una página web y, por otro lado, hay otras que recopilan información sobre la actividad de navegación para inferir en nuestros intereses, a partir de las páginas que visitamos o los contenidos donde hacemos clic. Estas, en ocasiones, comparten esa información en bases de datos con el fin de descubrir nuestros intereses.
El machine learning : una técnica para detectar intereses
De esta manera, el proceso mediante el cual se analiza el comportamiento de las personas se conoce como machine learning , técnica que identifica patrones. Aunque, «esto solo sucede cuando recibe datos suficientes», comentan Diego Perino, Nicolas Kourtellis y Kleomenis Katevas, que forman parte del equipo de Core Innovation de Telefónica, a Think Big. Explican que estos datos pueden ser entrenados para detectar comportamientos o intereses de los usuarios . De esta manera, «pueden predecir lo que una persona puede hacer (o no) en un futuro», continúan.
Foto: Glenn Carstens-Peter
«Lo más preocupante es que los usuarios no son conscientes de que están siendo manipulados «, explica Stalling. Por esta razón, cuando Internet utiliza sus algoritmos para recomendarnos algo es importante que seamos capaces de pararnos a pensar si realmente necesitamos o queremos el producto que nos oferta.
Un buen ejemplo se puede encontrar en Facebook o Instagram. Donde es habitual que el usuario siga a cientos de cuentas en cada red social, lo que hace complicado mostrar las actualizaciones de todas y cada una de ellas. Por esta razón, el machine learning se encarga de pensar por nosotros para determinar con qué tipo de contenido interactuaremos. De esta manera, los usuarios disfrutaremos de esos contenidos, «sesgando o incluso polarizando nuestras opiniones hacia direcciones concretas «, asegura el equipo de Research.
Una privacidad que depende de los usuarios
En este escenario donde la privacidad de las personas se sitúa como un privilegio , aparecen diferentes propuestas para proteger los datos de los ciudadanos. A nivel europeo surge el Reglamento General de Protección de Datos en 2016, mientras que, por su parte, en España se desarrolla la Ley Orgánica de Protección de Datos Personales y garantía de los derechos digitales en 2018.
Foto: BenchaContabilidad
Sin embargo, nos encontramos con empresas con presencia en Internet que «construyen sus modelos de negocio en torno al acceso, la recopilación, el procesamiento y el intercambio de datos, sin el consentimiento de los usuarios «, comenta el equipo de Research. Ante esta situación nos aconsejan lo siguiente:
No compartir datos con terceros de manera aleatoria.
Crear conciencia en las empresas que procesan nuestros datos de manera ilegal, tal y como lo recoge el Reglamento General de Protección de Datos.
Solicitar plataformas con un mejor diseño de privacidad.
Es importante tener en cuenta que aunque existen leyes que regulan la protección de nuestros datos, el peso recae sobre nosotros, los usuarios . Necesitamos aceptar cookies cada vez que accedemos a una página web, entonces, si queremos navegar por Internet y no queremos que nos manipulen, ¿cómo lo hacemos? o ¿Cómo pueden las empresas saber todo de sus clientes y a la vez no saber nada de ninguno en concreto?
Una posible solución al problema de la privacidad: el aprendizaje federado
En 2016, Google comenzó a hablar del aprendizaje federado, una técnica del machine learning en la que a diferencia de lo que hemos visto anteriormente, los datos de cada dispositivo no son compartidos en un servidor central donde se procesa el algoritmo, sino que la información permanece en cada unidad por separado . Y, en su lugar, «se comparte un modelo capacitado con el servidor central», apunta el equipo de Research.
Ilustración: Niko Gómez
De la misma manera que el machine learning ya forma parte de nuestras vidas, al aprendizaje federado le queda un largo camino por delante. Uno de los ejemplos de esta técnica lo localizamos en los teclados de los teléfonos inteligentes . Cuando desde Google o Apple nos sugieren una palabra o un emoticono se está aplicando el aprendizaje federado.
Desde el equipo de Research comentan que se espera que pronto lleguen más aplicaciones de este método, sobre todo, en el área de la salud. Con la llegada de la actual pandemia, la telemedicina ha adquirido un papel importante para toda la sociedad. Por ello, la clave del aprendizaje federado es que todos los datos relacionados con la salud permanezcan en el dispositivo del usuario, mientras que a la par «se contribuye a que los modelos globales sean capaces de realizar diagnósticos médicos «, apuntan.
A pesar de lo anterior, no todo el peso recae sobre el aprendizaje federado, ya que, aunque este sí protege a los usuarios de compartir información privada, no garantiza la privacidad en su conjunto , ya que «los parámetros del modelo pueden filtrar información sensible sobre el usuario», explica el equipo de Research.
Con este escenario surge la privacidad diferencial , que consiste en obtener información de grandes conjuntos de datos, pero haciendo uso de un algoritmo por el cual nadie puede obtener información sobre una sola persona. De esta manera, las empresas pueden conocer los gustos de sus clientes sin que esto afecte a la privacidad de estos. Según el equipo de Research: «esta técnica protege la privacidad del usuario, aunque como consecuencia se sacrifica la precisión del modelo «.
Foto: Hj Barraza
Como podemos ver, la unión del aprendizaje federado y la privacidad diferencial pueden ser la solución para mantener la privacidad de los datos sensibles de millones de personas. Sin embargo, en los últimos años hemos vivido diversos escándalos de privacidad de la mano de grandes compañías. ¿Realmente la aplicación de ambos métodos puede volver ganarse la confianza de la sociedad ?
Para Lars Stalling, no todo reside en estas técnicas, sino que es esencial «transmitir a los usuarios que sus datos son suyos y nunca pasarán a terceros», apunta. ¿Cómo? A partir de ofrecer « casos de uso y aplicaciones concretas en combinación con una política de transparencia y comunicación proactiva», comenta.
Un cambio de mentalidad en una sociedad polarizada
Sin duda, uno de los grandes retos de los próximos años será volver al libre albedrío, es decir, ser capaces de tomar nuestras propias decisiones sin estar manipulados por agentes externos .
Por todo ello, es importante ser conscientes de que nuestros datos, hoy en día, no son a menudo completamente privados , ya que se manejan en masa desde un servidor central. Debemos pensar tres veces qué estamos aceptando o qué estamos compartiendo en nuestras redes sociales.
Ilustración: Niko Gómez
Precisamente en torno a las redes sociales están despertándose, también, debates en torno a las fake news , la desinformación y la creación de cámaras de eco, un fenómeno que se ha podido presentar bien recientemente con la pandemia de COVID-19.
Tampoco es recomendable formar nuestras opiniones en base a perfiles que piensan igual que nosotros. Esto es conocido como el famoso filtro burbuja de Eli Pariser, se trata de una búsqueda personalizada a partir de nuestro historial de búsquedas, ubicación geográfica y clics del pasado. Esta técnica logra que nos aislamos en nuestra propia burbuja ideológica y cultural .
Así, cuando nos acostumbramos a un público con el que compartimos nuestras ideas, estas pasan a estar polarizadas, de forma que cuando nos encontramos con una persona que no las comparte en seguida tomamos sus ideas como «locas o radicales», comenta Stalling. Por su parte, Cass Susstein, profesor de derecho en la Universidad de Harvard, recoge en su libro ‘#Republic» que las charlas profundas sobre ideas ideológicas son escasas en redes sociales.
Según el equipo de Research la verdadera libertad de datos « solo llegará cuando el Reglamento de Protección de Datos y reglamentaciones similares se apliquen plenamente «. Mientras tanto, solo se puede recomendar a los usuarios que se piensen varias veces antes de aceptar unas cookies , de adquirir un objeto o de tomar como veraz un post en redes sociales. No podemos olvidar que si un producto es gratis: « nosotros y nuestros datos somos el producto «, apuntan.
Ilustración de cabecera por Niko Gómez y producción del vídeo por Raquel Navarrete.
Post a Comment