Resumen: El pasado sábado 23 de agosto de 2014 fue presentada, en México D.F., la
octava Declaración del Observatorio
Iberoamericano de Protección de Datos por Dulcemaría Martínez Ruiz que es colaboradora de la iniciativa. La
Declaración nace como reflexión y exposición de la situación actual, en materia
de protección de datos en Iberoamérica, y las líneas programáticas por las que
se debería apostar en pro de una mayor protección del derecho a la intimidad,
la propia imagen y el honor de las personas en Internet, en el ámbito del
fenómeno creciente del Big Data.
En esta Declaración han
colaborado
|
Coordinadores
|
|
Ramón Miralles López
José Luis Colom Planas
Dulcemaría Martínez Ruíz
Laura Vivet Tañà
Héctor E. Guzmán Rodríguez
Analía Aspis
Nelson Remolina Angarita
Lorenzo Martínez Rodríguez
Horacio Gutiérrez Gutiérrez
Edgar David Oliva Terán
Adela Goberna
J. León Unger
Violeta Guerra Ramos
Aristeo García González
Patricia Reyes Olmedo
Romina Florencia Cabrera
Marta Sánchez Valdeón
Javier Villegas Flores
Maria Paulina Casares Subia
Philipe C.
Bienvenue Martin del Campo
Olivia
Andrea Mendoza Enríquez
Federico
Césal Lefranc Weegan
Jorge
Moreno Loza
Cynthia
Téllez Gutiérrez
Joab
Andrés Mora
|
Francisco R. González-Calero Manzanares
Daniel A. López Carballo
|
|
Actualizado
|
24 de Agosto de 2014
|
|
ÍNDICE
1. PRESENTACIÓN2. INTRODUCCIÓN AL BIG DATA
3. TRABAJOS PREVIOS A NIVEL INTERNACIONAL
3.1. Aprovechar las oportunidades, preservando los valores
3.2. Recomendaciones sobre la publicación de datos personales en la web
3.3. Big Data y el futuro de la privacidad
3.4. Monitorización continuada de la seguridad de la información
3.5. Gestión de grandes cantidades de datos
3.6. Derecho a la privacidad en la era digital
3.7. Big Data y Protección de Datos
4. BIG DATA COMO SERVICIO DE TI
5. LA SEGURIDAD DE LOS DATOS
6. LA CALIDAD DE LOS DATOS
7. BIG DATA Y PRIVACY BY DESIGN (PbD)
7.1. Proactivo no reactivo / preventivo no correctivo
7.2. Privacidad por defecto
7.3. Privacidad integrada en el diseño
7.4. Funcionalidad
7.5. Protección durante todo el ciclo de vida de los datos
7.6. Transparencia
7.7. Velar por los intereses del usuario como objetivo
8. MARCO DEL GOBIERNO DE LOS DATOS
9. BIG DATA Y CLOUD COMPUTING
10. OTROS ASPECTOS A CONSIDERAR
11. ESPECIALIDADES DE BIG DATA
11.1 Open Data, Smart Cities y Administraciones Públicas
11.2 Big Data y Sanidad
11.3 Big Data y entidades financieras
11.4 Big Data y la publicidad comportamental
11.5 Big Data y Educación
12. EL CONCEPTO DE PORTABILIDAD DE LOS DATOS E INTEROPERABILIDAD
12.1. Responsabilidad por daños por Interrupción en el Servicio
12.2. Acuerdos de Nivel de Servicio
13. DERECHOS DE AUTOR
1. PRESENTACIÓN
En la Jornada, que tuvo lugar los días 22 y 23 de agosto en México D.F.,
participaron Dña. Ximena Puente de la Mora (Presidenta del IFAI), el Dr. Julio
Téllez (Investigador del Instituto de Investigaciones Jurídicas de la UNAM), la
Mtra. Blanca Lilia Ibarra (Directora de Documentación del Tribunal Electoral
del Poder Judicial de la Federación), así como el Mto. Manuel Haces Aviña
(Gerente de Prospectiva en NIC México).
La Declaración de México D. F., hacia la implantación de garantías para
la protección de datos en los tratamientos de Big Data, contó en su elaboración
con la participación de expertos de México, España, Argentina, Ecuador,
Colombia, Bolivia, Perú y Chile.
El Big Data es
un concepto que ha cobrado relevancia desde hace varios años, ya en 2006 Clive
Humby hablaba de que los datos eran “el nuevo petróleo”, es así que al igual
que el petróleo, los datos han impulsado una nueva visión de derrama económica
y técnica, e incluso, se nos presenta como una oportunidad para ayudar a
resolver los problemas de nuestra sociedad y nuestro entorno.
Al hablar de Big
Data se hace referencia al procesamiento de grandes cantidades de información,
en un volumen y tiempo superior al del software habitual, permitiendo su
almacenamiento, búsqueda, visualización, compartición, segmentación o análisis,
disponibles en diferentes formatos y estructuras, información de la cual gran
parte está comprendida por los datos que los usuarios de Internet generan, ello
a través de las redes sociales, blogs, publicaciones en páginas web, mails y
toda la información generada por los dispositivos móviles, GPS y a través de
cualquier otro dispositivo conectado a Internet. Debido a la abundancia de
sensores, micrófonos, cámaras, escáneres médicos, imágenes, etc. en nuestras
vidas, los datos generados a partir de estos elementos serán dentro de poco el
segmento más grande de toda la información disponible.
Al correlacionar
y contextualizar toda la información disponible en Internet e incluso, al
fusionarla con la información de las fuentes de acceso público, se puede interpretar
y entender del comportamiento de las personas, tales como, preferencias de
vestuario, diversión o alimenticias, segmentando los resultados incluso por
zonas, edades u otras características. El análisis anterior por lo general se
encuentra enfocado al conocimiento del mercado, preferencias y satisfacción de
las necesidades de los usuarios. Incluso se plantea la posibilidad de usos
delictivos de esa información.
La Declaración
nace como reflexión y exposición de la situación actual en materia de protección
de datos en Iberoamérica y las líneas programáticas por los que se debería
apostar en pro de una mayor protección del derecho a la intimidad, la propia
imagen y el honor de las personas en Internet, en el ámbito del fenómeno
creciente del Big Data.
2. INTODUCCIÓN AL BIG DATA
Hoy en día, en
un mundo digitalizado, la naturaleza de la información es diferente a la que
disponíamos en el pasado. Es así debido a la abundancia de orígenes
disponibles, cada uno con su peculiar variedad de datos. Un tipo de fuentes son
las que se refieren a datos creados directamente por las personas, como pueden
ser la informática tradicional corporativa, redes sociales, transacciones de
comercio electrónico, formularios web, blogs, centros de atención a clientes,
etc. y sus posibles indexaciones en motores de búsqueda. Otro tipo, que se
prevé sea dentro de poco el segmento más grande de toda la información
disponible, se refiere a los datos obtenidos por máquinas, como pueden ser
sensores, micrófonos, cámaras de video, escáneres médicos, equipos
industriales, GPS, dispositivos móviles, nuevas generaciones de
electrodomésticos, electrónica para vestir (wearable devices), etc. que también
puede ser indexado.
Todos estos
tipos de datos forman parte del tejido de nuestras vidas más profundamente que
nunca. La recolección, el almacenamiento, el procesamiento y el posterior
análisis de datos se encuentra en una fase de expansión paradigmática,
impulsada por el aumento de la capacidad de procesamiento y el creciente número
de tecnologías integradas en dispositivos de todo tipo.
Además se debe
tener en cuenta que tanto en el presente como en el futuro, a los datos se le
ha asignado un valor estratégico en varias industrias y mercados. Es decir, se
han convertido en una clase de activos, esto es, lo equivalente al petróleo,
sobre todo, por su fácil disponibilidad y procesamiento. Lo cual va a permitir
llevar a cabo una nueva interpretación de los mismos de manera novedosa,
dándoles un mayor valor agregado.
El valor de los
datos no es sólo económico sino también social, científico, político y
cultural. Son innegables, inimaginables y hasta inevitables las cosas que
pueden alcanzarse con el trío conformado por datos personales, tecnología y
análisis. A partir de ellos puede contarse con instrumentos para tomar mejores
decisiones con información amplia y detallada y predecir algunas cosas.
En este contexto
podemos definir Big Data como los sistemas y herramientas que son capaces de
tratar ingentes cantidades de datos en un tiempo muy inferior en el que lo
harían los equipos tradicionales, permitiendo su almacenamiento, búsqueda,
visualización, compartición, segmentación y análisis. En la misma línea está la
definición dada por McKinsey Global Institute (MGI), que lo entiende como el
“conjunto de datos cuyo tamaño, y demás características, van más allá de las
capacidades de captura, almacenamiento, tratamiento y análisis mediante
herramientas tradicionales de gestión de base de datos”.
Suele
argumentarse que Big Data se encuentra intrínsecamente relacionado con el
Internet de las Cosas (IoT), es decir, con el diseño de una estructura de red
interconectada que permite que dispositivos físicos se comuniquen entre sí con
la capacidad para transmitir, compilar y analizar datos. Ordenadores de bajo
consumo, teléfonos más planos, tablets con pantallas más grandes,
electrodomésticos “inteligentes” como cámaras Web con sensor de movimiento,
alarmas, SmartTVs, aspiradoras robotizadas, olos famosos “wearables”, entre
otros, en forma de pulsera, que se encarga de medir parámetros de nuestro
cuerpo: sudoración, ritmo cardiaco, calorías consumidas, horas de sueño
efectivo…, elementos que forman parte de nuestra vida cotidiana, cuyo
denominador común es contar con una pila TCP/IP, que les dota de conexión a un
ecosistema en el que interactúan con otros dispositivos. Debido a la naturaleza
ubicua de objetos conectados en la IoT, se espera que un número sin precedentes
de dispositivos que se conecten a Internet, estimándose cerca de 26 mil
millones de dispositivos en el Internet de las Cosas en 2020, siendo esta
última una fuente de recolección de datos que crece exponencialmente y, en
consecuencia, adecuada para ser procesada mediante sistemas Big Data.
Las
características principales de un sistema Big Data suelen está referido a sus
5“V” , es decir su capacidad relacionada con el volumen de la cantidad de datos
para almacenar y procesar; la velocidad de transformación de los datos en
información útil en el menor tiempo posible; la variedad de datos que un sistema
de Big Data procesa y la heterogeneidad de sus formatos (bases de datos, HTML,
XML, texto plano, imágenes, video, audio, código fuente, etc.); la veracidad de
los datos y el valor del sistema Big Data en sí mismo, esto es, su capacidad
para obtener valor de todos los datos disponibles a través de un almacenamiento
y procesamiento eficiente y al menor coste posible.
Según lo
señalado, el análisis de los datos no estructurados no es una aplicación
trivial, y tratar de analizar petabytes o conjuntos de datos más grandes puede
magnificar las dificultades que entrañan la extracción, transformación, carga,
almacenamiento y procesamiento de datos. El análisis basado en la transmisión
de grandes cantidades de datos socialesofrece la posibilidad de crear perfiles
sociales, por lo que la puerta que se ha abierto para los nuevos tipos de
tratamiento pueden crear problemas legales. La creación de perfiles para la
predicción de conductas, la observación y modelación del comportamiento de las
personas (profiling) surgen entonces, como un alerta a la necesidad de una
protección legal de los datos, su seguridad y el respeto a la privacidad cuando
estas tecnologías van ligadas a contratos de adhesión o a usos delictivos de
estos datos (saber por tu consumo eléctrico cuando no estás en casa). Así,
estos grandes volúmenes de datos han expresado ya problemas concretos: falta de
coordinación transnacional, infraestructura y financiación inadecuada, falta de
expertos en información y conocimientos relacionados y un marco jurídico
fragmentado y complejo. Los análisis de Big Data y su recopilación, sin un
determinado marco jurídico, esgrime el surgimiento de nuevos problemas de
privacidad y autodeterminación informativa.
3. TRABAJOS PREVIOS O EN PREPARACIÓN
A NIVEL INTERNACIONAL
3.1. Aprovechar las oportunidades,
preservando los valores
En enero de
2014, el presidente Barack Obama, presionado por las revelaciones de Edward
Snowden, se vio forzado a presentar un discurso ante el Departamento de
Justicia de los Estados Unidos donde se comprometió a modificar el programa de
vigilancia sobre datos telefónicos. En ese mismo discurso dispuso que un grupo
de expertos confeccionara rápidamente un informe que detalle las consecuencias
relevantes del Big Data y se emitieran una serie de recomendaciones.
El informe,
titulado “Seizing opportunities,
preserving values” (mayo de 2014), reafirma que las tecnologías de Big
Data, como toda tecnología, no son per se buenas o malas, pueden ser utilizadas
para el bien general de la sociedad o para producir daños. Afirma que en su faz
positiva puede fortalecer la democracia, generar crecimiento económico y
mejorar la calidad de vida de los ciudadanos al mejorar los servicios de salud,
educación, así como la seguridad interior y nacional.
También
considera que los datos generados son ahora más valiosos e invasivos. Si bien
indica que el potencial positivo es enorme, también pueden darse usos
perjudiciales que afecten valores básicos de justicia y equidad. Debido a que
no siempre todos los agentes que acceden a grandes volúmenes de información
poseen los mismos recursos para procesarlos, es esperable la aparición de
nuevas asimetrías entre instituciones e individuos.
Asimismo
identifica un fuerte interés del sector privado, pues esta tecnología permite
crear perfiles de consumidores con mayor facilidad y precisión, que además
también pueden ser comercializados. Expresamente se resalta el problema
resultante de la falta de conocimiento de los consumidores, quienes, en la
mayoría de los casos no son conscientes en qué medida ellos mismos son los
productos que se comercializan.
Respecto de la
discriminación y su relación con los derechos ciudadanos señala que el
tratamiento de datos habilita a los gobiernos a realizar prácticas
discriminatorias por medio de la implementación de determinadas políticas
públicas, sin tomar en consideración las necesidades de grupos minoritarios.
Finalmente concluye que los principales valores en peligro son los relacionados
con la privacidad, por lo que es necesario preservarlos mediante la protección
de toda información personal, con mejores y más actualizadas leyes de
protección a los consumidores y a los ciudadanos en general, garantizando que
la información recolectada sea utilizada para los fines permitidos y declarados
con anterioridad.
El 23 de abril
del 2014, bajo el lema “Rewards and Risks of Big Data (Recompensas y riesgos de
los grandes volúmenes de datos) se presentó la 13ª edición de The Global
Information Tecnology Report, documento elaborado por el Foro Económico Mundial
y el INSIDE. Dicho informe recoge las debilidades que aún subsisten en el
sistema empresarial y de innovación en las Tecnologías de la Información y las
Comunicaciones de 148 economías.
Entre otras cosas,
en el citado informe se hace un análisis respecto a la postura que deben asumir
los países frente a la madurez de los volúmenes de las grandes bases de datos;
así como la manera en que deben ser tratados, a fin de obtener de los mismos
mayores beneficios comerciales y organizativos. Sin dejar de lado, la necesidad
de que se cuente con políticas adecuadas para que la Internet de Todo puede
concretar su promesa de proporcionar inmensos beneficios económicos y sociales.
La importancia de este documento radica en que a través del mismo se puede
medir el impacto que puede llegar a tener el big data en la privacidad de las
personas y los beneficios que podrían representar para las empresas, incluso,
para los propios gobiernos. Y sin duda, puede ser un referente a la hora de
buscar una armonización de los reglamentos sobre la protección de datos a nivel
mundial.
3.2. Recomendaciones sobre la
publicación de datos personales en la
web
En abril de
2013, el Grupo de trabajo internacional de Berlín sobre protección de datos en
las Telecomunicaciones, presentó el “Working
Paper and Recommendations on the Publication of Personal Data on the Web,
Website Contents Indexing and the Protection of Privacy”. El documento
expresa que uno de los fundamentos de la protección de datos es el derecho de
los sujetos a controlar su propia información, teniendo el derecho a que se
elimine la información procesada ilegalmente, o la producida sin su
consentimiento. En este sentido, el “derecho al olvido” se presenta como
esencial, en los casos en donde hay interés legítimo avalado legalmente,
asegurando que no se afecte la libertad de expresión y la libertad de prensa.
En el caso de la
información existente en Internet, dada su estructura, el “derecho al olvido”
sería más bien un “derecho a no ser encontrado”. Actualmente no hay forma
técnica de identificar y localizar todas las copias disponibles de algún
archivo o información específica en Internet, lo cual no obsta que la nueva
información generada sea posible establecer mecanismos que funcionen como
fechas de vencimiento, garantizando que dejen de estar disponibles pasadas
determinadas fechas de forma automática. El grupo de trabajo alienta a los
actores relevantes (sector privado, académico y gobiernos) a fortalecer sus
esfuerzos para progresar en este campo. Asimismo, debe tenerse presente que
puede restringirse la disponibilidad de determinada información restringiendo
los resultados ofrecidos por los servicios de búsqueda, y que es posible
otorgar a los usuarios herramientas para eliminar su propia información
personal.
3.3. Big Data y el futuro de la
privacidad
La Cloud
Security Alliance por medio de su Grupo de Trabajo sobre Big Data emitió en
marzo de 2014, un comentario sobre Big Data y el futuro de la privacidad,
sintetizando que el interés por parte de los gobiernos en el tratamiento de
información debería centrarse simultáneamente en cuestiones de acceso,
propiedad, privacidad, transparencia y responsabilidad.
Señala que la
protección de la privacidad se ha convertido en un objetivo difícil de
alcanzar, ya que investigadores han demostrado que los individuos pueden ser
re-identificados fácilmente mediante el cruce de diferentes bases de datos.
Asimismo, el lugar en dónde se almacenan los datos, el lugar en donde se
procesan y los lugares en donde se distribuyen los resultados derivados de su
análisis determinan la competencia de diferentes jurisdicciones, las cuales
protegen con diferente intensidad la privacidad de los sujetos.
Remarca también
que nuevas tecnologías de encriptado de datos posibilitarían un uso efectivo
del Big Data resguardando al mismo tiempo la privacidad de los sujetos
generadores de información, aunque estas tecnologías no deberían implementarse
en forma aislada sin ser acompañada por un marco de leyes adecuadas y buenas
prácticas.
3.4. Monitorización continuada de la
seguridad de la información
Otros
antecedentes existentes en materia de seguridad de la información pueden ser
examinados a la luz de la problemática específica del Big Data. El National Institute of
Standards and Technology (NIST), publicó en septiembre de 2011 el SP 800 – 137
“Information Security Continuous
Monitoring for Federal Information Systems and Organizations”. El documento reconoce que para garantizar la seguridad de la información
se requiere de órganos específicos que identifiquen y respondan frente a las
nuevas vulnerabilidades emergentes y amenazas cambiantes, en un entorno de
cambio de organización e infraestructura.
El informe
resalta la importancia de un control constante como parte de los procesos de
administración de riesgos, para alcanzar un nivel de riesgo aceptable y es por
ello que recomienda a las organizaciones públicas o privadas definir en primer
lugar una estrategia de control constante sobre la seguridad de la información,
establecerla en un programa de acción e implementarla para luego analizar la
información resultante y las vulnerabilidades descubiertas y responder frente a
ellas para así poder, en última instancia, revisar la estrategia y el programa
de acción diseñado, para actualizar y mejorar el esquema general de seguridad y
aumentar la calidad de la seguridad de la información al final de cada ciclo.
3.5. Gestión de grandes cantidades de
datos
El grupo de
estudio ad hoc “Next Generation Analytics and Big Data” – integrante del comité
sobre gestión de datos y normas de intercambio (SC32) del JTC1 de la
Organización Internacional de Normalización (ISO/CEI) – publicó en junio de
2013 su reporte preliminar sobre la gestión de grandes cantidades de datos. El
documento reconoce que la protección de la privacidad es un factor a
considerar, y que no tenerlo en cuenta puede derivar en temores públicos
generales sobre la existencia de un “Gran Hermano”, diferentes sanciones de
organismos protectores de la privacidad, y acciones judiciales, incluso
colectivas.
3.6. Derecho a la privacidad en la
era digital
El reporte
“Right to Privacy in the Digital Age” (junio de 2014), presentado por el Alto
Comisionado para los Derechos Humanos de las Naciones Unidas, sobre la cuestión
de la recolección masiva de datos vista desde el derecho a la privacidad.
El Alto
Comisionado afirma que el derecho internacional de los derechos humanos
contiene el marco frente al cual toda interferencia al derecho a la privacidad
debe ser confrontado, aclarando que este no es el único derecho violado frente
a prácticas de vigilancia masiva, intercepción de comunicaciones privadas y
recolección de datos personales.
El reporte
cuestiona el grado en que los consumidores son realmente conscientes de los
datos que están compartiendo, de qué manera lo hacen, con quiénes y para qué
fines, frente a las posiciones que sostienen que el transporte e intercambio de
información personal a través de medios electrónicos es parte de un acuerdo
consciente mediante el cual los individuos entregan voluntariamente información
sobre sí mismos y sus relaciones, a cambio de acceso digital a bienes,
servicios e información.
También definen
como no convincente a la distinción entre datos y metadatos. Cualquier captura
de datos de comunicación interfiere potencialmente con la privacidad, y la
recolección y el almacenamiento de estos datos conforman una injerencia en la
vida privada, sean esos datos posteriormente consultados o no. Incluso la mera
posibilidad de que esa información pueda ser interceptada crea una injerencia
en la vida privada por el potencial efecto negativo sobre varios derechos,
incluidos los de la libertad de expresión y de asociación.
Nadie puede ser
objeto de injerencias arbitrarias o ilegales en su vida privada, su familia, su
domicilio o su correspondencia. Toda persona tiene derecho a la protección de
la ley contra esas injerencias o esos ataques. Las injerencias permitidas por
leyes nacionales pueden ser ilegales si aquellas leyes están en conflicto con
el derecho internacional de los derechos humanos. Los estados deben probar que
las injerencias son necesarias, proporcionales y que respetan los principios de
legalidad.
El reporte
reconoce que estamos presenciando la emergencia de una práctica de los estados
que consiste en externalizar las tareas de vigilancia masiva en terceros.
Reconocer la existencia de fuerte evidencia de una creciente dependencia de los
gobiernos para con el sector privado, en cuanto a llevar a cabo y facilitar
tareas de vigilancia digital.
Cuando una
compañía suministra los datos o la información de un usuario a un estado en
respuesta a una solicitud que contravenga el derecho a la privacidad según el
derecho internacional, o una empresa ofrezca tecnología de vigilancia de masas
o equipos a los estados sin salvaguardas adecuadas, o cuando la información se
utiliza de alguna manera en violación de los derechos humanos, las empresas
corren el riesgo de ser cómplices o verse involucrados en violaciones de los
derechos humanos.
Cuando las
empresas se enfrentan a demandas de gobiernos para acceso a datos que no
cumplan con las normas internacionales de derechos humanos, se espera que
traten de honrar los principios de los derechos humanos en la mayor medida
posible y que sean capaces de demostrar sus continuos esfuerzos en ese sentido.
3.7. Big Data y Protección de Datos
El 28 de julio
de 2014 el Information Commisioner´s Office del Reino Unido ha publicado un
informe titulado “Big Data and Data Protection”. Para el ICO operar dentro de
la ley no debería considerarse como una barrera a la innovación. El Informe
expone cómo se aplica la ley cuando Big Data utiliza la información personal.
Detalla que aspectos de la ley necesitan considerar particularmente las
organizaciones para poder innovar sin situarse al margen de la ley. Las
organizaciones necesitan pensar en formas innovadoras para decir a los clientes
lo que quieren hacer y lo que esperan lograr. El informe también aborda las
inquietudes planteadas por algunos comentaristas que no encajan la actual ley
de protección de datos con Big Data. Para el ICO los principios de protección
de datos básicos ya establecidos en la ley del Reino Unido y la Directiva 95/46
son lo suficientemente flexibles para cubrir Big Data. Los principios todavía
son aptos para el propósito, pero las organizaciones necesitan innovar al
aplicarlos. También valora positivamente las nuevas herramientas previstas en
la Propuesta de Reglamento General de Protección de Datos de la UE para este
tipo de tratamientos.
4. BIG DATA COMO
SERVICIO DE TI
Big data es uno
más de los servicios que ofrece el área de Tecnologías de la Información (TI) a
la organización con el objetivo de poder obtener valor a partir de la
información. Esa finalidad se consigue mediante el análisis de los datos,
obtenidos a partir de múltiples orígenes y con diferentes formatos, mediante
técnicas analíticas implementadas en sistemas informáticos especializados.
En consecuencia
Big Data debe ser administrado, con el mismo rigor que el resto de servicios de
la organización, integrándose bajo el paraguas de las estructuras de Gobierno y
Gestión de TI.
Para comprender
el alcance de esta necesaria integración, podemos aproximarnos a una definición
de gobierno y gestión que clarifique los conceptos: mientras que la gestión
únicamente pretende mejorar la eficacia y la eficiencia de los servicios, y de
los procesos en que éstos se sustentan, el gobierno pretende asegurar unos
objetivos, partiendo de unos recursos y en base a la estrategia corporativa acordada,
manteniendo el riesgo a un nivel aceptable. Y es en este último concepto de
riesgo donde, desde el punto de vista de la protección de datos, debemos
prestar especial atención.
El riesgo puede
incidir en la privacidad como la probabilidad de que se materialicen las
diferentes amenazas que representan un impacto negativo de seguridad en los
datos personales, pudiendo comprometerse la confidencialidad, la integridad o
la disponibilidad de los mismos. Pero también, desde un punto de vista
jurídico, el riesgo puede surgir de la adopción inadecuada o insuficiente del
marco normativo y regulatorio o debido a la ausencia, en determinados países,
de legislación aplicable sobre protección de datos personales.
En algunas
legislaciones Iberoamericanas, las acciones y los avances que permiten
identificar un marco regulatorio adecuado para “hacer frente” al Big Data que
involucra datos personales, que para su completa comprensión y aplicación
podría adoptar un axioma general: “Lo importante no es la cantidad de datos
personales tratados, sino que son datos personales”.
De esta forma,
de la misma forma que es recomendable atender a la realidad económica y
organizativa de todos aquellos sujetos que tratan datos personales, y por lo
tanto bienvenida la elaboración y difusión de textos como el “Manual en materia
de seguridad de datos personales para MIPYMES y organizaciones pequeñas”,
también resulta recomendable (quizás, indispensable) el análisis de Big Data
como servicio de TI y sus implicaciones con la protección de datos personales y
la privacidad de las personas.
5. LA SEGURIDAD DE LOS DATOS
Los tres
atributos básicos de la seguridad de la información, pueden llegar a verse
comprometidos en los tratamientos de Big Data:
En relación a la
confidencialidad existe la posibilidad real, a partir de un análisis basado en
volúmenes de datos que pudieran llegar a correlacionarse con algún dato
identificativo personal, del trazado de perfiles de conducta de los afectados.
Precisamente el volumen de datos es una de las características esenciales de
Big Data, junto a la aplicación de la analítica adecuada. Es en este punto
donde se considera fundamental la determinación, previa a ese tipo de
tratamientos, de la finalidad de los mismos. El principio de finalidad, además
del de consentimiento, debería ser la estrella polar de la protección de datos
referida a Big Data. Otras actitudes, como es el permitir un acceso
individualizado o granular a los grandes volúmenes de datos almacenados en los
sistemas de Big Data, puede representar elevado riesgo para la privacidad si
los datos se almacenan sin la debida anonimización o están insuficientemente
protegidos mediante controles de acceso ineficaces.
En cuanto a la
integridad de la información, representada en un sentido más amplio por la
calidad de los datos, debe considerarse que si el objetivo principal de Big
Data es facilitar ayuda para la toma de decisiones, la falta de integridad
provocará la obtención de conclusiones erróneas y, en consecuencia, decisiones
también erróneas.
Y, por último,
sin el atributo de disponibilidad no será posible dar en todo momento el debido
cumplimiento al derecho de acceso, considerado como un mecanismo de
verificación y control de los propios datos por parte del interesado, amparado
por la legislación aplicable en materia de protección de datos. En él se
incardinan relacionados todos los demás derechos de rectificación, cancelación
y oposición.
Una peculiaridad
del derecho de acceso, en entornos de Big Data, no es solo posibilitar el
conocimiento de todos los datos personales, en sí mismos, de que dispone una
organización relacionados con el interesado. También sería deseable un acceso
transparente a los diferentes perfiles que el sistema haya podido construir del
propio afectado de forma automatizada y, a ser posible, una descripción de la
lógica de los algoritmos empleados para obtenerlos, conocer para qué han sido
obtenidos esos perfiles y, si procede, a quién se han facilitado.
En México, como
en otra legislaciones Iberoamericanas, la normativa vigente cuenta con las
disposiciones necesarias para obligar a los responsables que tratan datos
personales en un entorno de Big Data a la adopción de las medidas de seguridad
que garanticen los tres atributos anteriormente identificados.
Bajo un enfoque
neutral (y por ello positivo para los objetivos perseguidos) el art. 19 de la
LFPDPPP dispone que “todo responsable que lleve a cabo tratamiento de datos
personales deberá establecer y mantener medidas de seguridad administrativas,
técnicas y físicas que permitan proteger los datos personales contra daño,
pérdida, alteración, destrucción o el uso, acceso o tratamiento no autorizado”.
Se establece, además, que “los responsables no adoptarán medidas de seguridad
menores a aquellas que mantengan para el manejo de su información. Asimismo se
tomará en cuenta el riesgo existente, las posibles consecuencias para los
titulares, la sensibilidad de los datos y el desarrollo tecnológico.”
La generalidad y
neutralidad de estas disposiciones, en relación con Big Data, requerirá que
cada tratamiento de datos personales sea valorado (e.g. mediante un “Privacy
Impact Assesment”) para tomar en cuenta, precisamente, el riesgo existente
sobre el tratamiento de los datos, las posibles consecuencias del mismo para
los titulares, la sensibilidad de los datos tratados y el desarrollo
tecnológico que se utiliza para tratar los datos de forma masiva pero con
objetivos definidos.
En Peru, la Ley
de Proteccion de Datos Personales, Ley N° 29733, define un dato personal a toda
información que identifique o pueda volver identificable a un individuo, cuyo
Reglamento de la Ley, Decreto Supremo Nº 003-2013-JUS, en su articulo 24.
Complementa que es toda información numérica, alfabética, gráfica, fotográfica,
acústica, sobre hábitos personales, o de cualquier otro tipo concerniente a las
personas naturales que las identifica o las hace identificables a través de
medios que puedan ser razonablemente utilizados, definición que comprendería la
protección de los datos obtenidos a partir del Big Data dado que estos datos a
partir de sistemas de gestión de información pueden elborar un perfil de un
individuo.
La ley peruana
regula la información que debe ser comunicada cuando el titular de un dato
ejerce su derecho de acceso, en cual sea titular del banco de datos personales
o responsable del tratamiento la información relativa a sus datos personales
debe proporcionar todas las condiciones y generalidades del tratamiento de los
mismos. Ademas se recalca que la respuesta debe ser amplia y comprender la totalidad
del registro correspondiente al titular de datos personales, aun cuando el
requerimiento sólo comprenda un aspecto de dichos datos. Es decir, si existiera
la aplicación de una herramienta como el de Big Data se debe poner en
concimiento este procedimiento con toda la información correspondiente al
tratamiento llevado a cabo por este tipo de análisis de datos personales, que
en el caso del Big Data comprendería señalar el método y tipo de análisis de la
obtención o generación del dato personal
6. LA CALIDAD DE LOS DATOS
Hay dos formas
de abordar la calidad de los datos en entornos de Big Data: Desde un punto de
vista jurídico y desde otro más tecnológico. La conjunción de ambos nos
garantizará el marco adecuado para confiar en la certeza de los resultados
obtenidos a partir de los tratamientos y contribuir a la protección de los
derechos fundamentales de los afectados.
La mayoría de
normativas de protección de datos disponen que los responsables del tratamiento
deberán observar, entre otros, el principio de calidad de los datos. Se
cumplirá con este principio cuando los datos personales tratados sean exactos,
completos, pertinentes, necesarios, correctos y actualizados según se requiera
para el cumplimiento de la finalidad para la cual son tratados. El responsable
deberá establecer los mecanismos que considere necesarios para preservar esos
atributos evitando así que se altere la veracidad de la información. Ya hemos
visto que en entornos de Big Data la calidad de los datos es algo sustancial a
la vez que, debido a los grandes volúmenes de datos tratados y su variedad, se
requerirán mayores esfuerzos para lograrlo.
Vemos que el
principio de calidad de los datos debe contemplarse como un binomio
indisociable del principio de finalidad, que limita el alcance de los
tratamientos a la finalidad concreta, o compatible, para la que éstos fueron
recabados y los interesados informados.
Partimos de la
presunción de que en todo tratamiento de datos personales existe la expectativa
razonable de privacidad, entendida como la confianza que deposita el titular de
esos datos, respecto de que los datos personales que ha proporcionado serán
tratados conforme a lo que acordaron las partes. El valor de esa expectativa es
lo que, amparado por la legislación aplicable en materia de protección de
datos, proporciona confianza y seguridad jurídica. En consecuencia es
imprescindible en tratamientos de Big Data un análisis basado en el principio
de limitación de finalidad en relación a aquello que se le informó al
interesado y éste aceptó y que los datos tratados son los irrescindibles para
logar esa finalidad: derecho de información, minimización de datos y principio
de consentimiento. Siempre debería informarse al interesado sobre la finalidad
con que se recaban sus datos y el posible alcance de los tratamientos
posteriores.
El grupo de
trabajo consultivo europeo conocido como del Artículo 29 (GT29) ya se ha
pronunciado mediante el análisis de diferentes posibilidades en su opinión
wp203. Según esa opinión el principio de limitación de la finalidad es una
piedra angular de la protección de datos.
No obstante, los
datos que ya han sido recogidos pueden ser realmente útiles para otros
propósitos, que no han sido previstos inicialmente. Por lo tanto, también hay
valor en permitir, dentro de límites cuidadosamente equilibrados, un cierto
grado de uso adicional. Así, consideran que el principio de limitación de la
finalidad está diseñado para ofrecer un enfoque equilibrado: De una parte tiene
como objetivo conciliar la necesidad de la previsibilidad y la seguridad
jurídica en relación con los fines del tratamiento que deben ser explícitos,
legítimos y determinados y, por otra, la necesidad pragmática de proporcionar
flexibilidad sin incurrir en tratamientos incompatibles con dichos fines.
El procesamiento
adicional para un propósito diferente no significa necesariamente que sea
incompatible, pero la compatibilidad debe evaluarse caso por caso, teniendo en
cuenta todas las circunstancias, lo que no siempre será una tarea fácil y dificulta
la tutela por parte de las autoridades de control al desplazarse desde el plano
basado en el derecho objetivo hacia el plano de lo subjetivo en función de las
circunstancias.
A nivel
ilustrativo cabe citar el artículo 7.f de la Directiva europea 95/46/CE, que
establece dos únicos requisitos acumulativos para legitimar un determinado
tratamiento no consentido explícitamente: La necesidad de satisfacer un interés
legítimo y que no prevalezcan derechos y libertades fundamentales de los
afectados.
También adquiere
esencial relevancia en el principio de calidad de los datos el ejercicio de
derechos y la posibilidad de revocación de los consentimientos otorgados por
los afectados.
Desde un punto
de vista más tecnológico, en relación a la calidad de los datos, habitualmente
se hacen clasificaciones basándose en diferentes atributos de ellos:
- Íntegros, en el sentido que los datos, que en Big Data deben conciliarse procedentes de múltiples orígenes y diferentes formatos, continúen siendo completos, precisos y preservados de cambios no autorizados.
- Completos, evitando truncamientos que los desvirtúen durante el almacenamiento y demás tratamientos y permaneciendo vinculados los conjuntos de datos complementarios entre sí.
- Actualizados, manteniendo la trazabilidad desde cuando la información fue dada de alta o modificada en el sistema de Big Data y su fecha real o estimada de prescripción.
- Consistentes, que describe la coherencia lógica de la información.
- Válidos, que obliga a que sean confiables en su origen y acordes a la situación actual que representan.
- Precisos, que consiste en mantener la exactitud de los datos de entrada en los sistemas de Big Data, con independencia de los diferentes orígenes, ya sean humanos, informáticos, sensores, etc.
Como en otras tantas
jurisdicciones, México ha adoptado el principio de calidad como parte de
aquéllos otros rectores de la protección de datos personales y que,
materializado, debe garantizar que los datos tratados sean exactos, completos,
pertinentes, correctos y actualizados, según se requiera para el cumplimiento
de la finalidad para la cual son tratados por el responsable (art. 36 del
RLFPDPPP).
Cabe señalar que
la redacción adoptada por la Ley mexicana de protección de datos en relación
con este principio abre la puerta a diversas interpretaciones en relación con
su cumplimiento. En el entorno Big Data, la necesidad de interpretar lo
dispuesto por el artículo 11 de esta Ley se anticipa como inevitable, pues no
cabe duda que al disponer este numeral que “el responsable procurará que los
datos personales contenidos en las bases de datos sean pertinentes, correctos y
actualizados para los fines para los cuales fueron recabados”, si bien es
cierto se atiende a una realidad en relación con la posibilidad material de mantener
datos correctos y actualizados de los interesados, también es cierto que se
abren posibilidades indefinidas para flexibilizar en determinados escenarios la
rigurosidad de esta obligación.
Por lo anterior,
es recomendable, como para tantos otros principios, invitar al análisis,
estudio y difusión de las particularidades de Big Data y su enorme vinculación
con la protección de datos personales y la privacidad de las personas,
procurando en todo momento que tanto la generalidad de los principios como la especialidad
de los entornos en que estos deben respetarse, garantice la protección de los
bienes jurídicos protegidos por la normativa y la viabilidad de las actividades
económicas de los “responsables Big Data”.
Lo anterior
cobra mayor sentido a la luz de la reciente sentencia emitida por el Tribunal
de Justicia de la Unión Europea en el Asunto C‑131/12 (ya conocida como la “sentencia del derecho al olvido”), que
entre otros varios aspectos se pronuncia sobre el cumplimiento del principio de
calidad por parte de los gestores de motores de búsqueda en Internet,
concluyendo que dichos gestores son “responsables” del tratamiento de los datos
personales que efectúan estos motores de búsqueda y que, por lo tanto, están
obligados al cumplimiento de las disposiciones establecidas en la Directiva
europea 95/46/CE (entre otras, las relativas a la calidad de los datos que
tratan en el ámbito de sus actividades e intereses económicos).
7. BIG DATA Y
PRIVACY BY DESIGN (PbD)
Una de las
herramientas que se demuestran más útiles a la hora de respetar la privacidad
en los tratamientos de Big Data es el Privacy by Design, que podría definirse
como abordar la privacidad de forma temprana, especialmente en proyectos
complejos como pueden serlo los de Big Data, representando una mayor
efectividad a un coste menor. Por eso cabe considerarla desde la fase de diseño
(Privacidad por diseño).
El principio de
privacidad por diseño fue creado por la Comisaria de Privacidad de Ontario,
Canadá, Ann Cavoukian y puede ser aplicado a cualquier tipo de datos. Se
fundamenta en 7 principios básicos:
7.1. Proactivo no reactivo / preventivo
no correctivo
La privacidad
por diseño se anticipa a los riesgos antes de que se produzcan. Se trata de
adoptar medidas que impidan que estos riesgos se materialicen y por tanto,
tiene un carácter preventivo, se trata de actuar antes, no después.
7.2. Privacidad por defecto
Cualquier
sistema ha de estar configurado de forma que, por defecto otorgue una mayor
protección a la privacidad de las personas, de modo que, no se comparta la
información del usuario salvo que éste realice una acción o cambie su
configuración.
La privacidad
por defecto otorga un mayor control sobre la propia información ya que, el
usuario está protegido aunque no haga ninguna acción y decide libremente
cuándo, cómo y con quién, comparte sus datos.
7.3. Privacidad integrada en el
diseño
La protección de
la privacidad ha de estar integrada en el sistema desde el momento en que se
diseña, sin que ello disminuya su plena funcionalidad. No se trata de una
opción que se añade a posteriori sino que, es uno de sus componentes integrales.
7.4. Funcionalidad
Seguridad y
privacidad no han de ser características excluyentes sino que, ambas han de
estar garantizadas e integradas en cualquier sistema.
7.5. Protección durante todo el ciclo
de vida de los datos
La protección de
la información se ha de configurar desde el momento en que se recaban los
datos, durante todo su ciclo de vida hasta que son destruidos, garantizando
también que se eliminen de forma segura y confidencial, respetando los periodos
de retención establecidos.
7.6. Transparencia
La entidad que
trate los datos ha de estar sujeta a los términos y condiciones informados
desde un principio que, no podrán modificarse, sin el previo consentimiento del
afectado. También podrá estar sujeto a una verificación independiente.
7.7. Velar por los intereses del
usuario como objetivo
El interés del
individuo siempre ha de estar presente en el diseño y configuración de sistemas
y aplicaciones por ejemplo, mediante fuertes medidas de seguridad
(encriptación, verificación en dos pasos, etc.), información completa y
comprensible, opciones “user-friendly”, privacidad por defecto.
Ann Cavoukian ha
elaborado un nuevo principio basado en aquellas entidades que disponen de
grandes y complejos sistemas informáticos que ya están creados y que, por tanto,
no han aplicado desde el principio la privacidad por diseño. Se trata de “Privacy by ReDesign” (rediseño) que se
basa en las 3 Rs: “Rethink, Redesign and Revive” (repensar, rediseñar y
revivir):
- Rethink: consiste en que las organizaciones reviesen sus estrategias de mitigación de riesgos, procesos y sistemas considerando opciones que, otorguen una mayor protección a la privacidad. Revisar periodos de retención de datos, controles de acceso a los datos, et.
- Redesign: consiste en implementar mejoras en el funcionamiento de los sistemas desde un punto de vista de respeto a la privacidad y permitiendo obtener los mismos objetivos. Por ejemplo, valorar la disminución en el tipo de datos recabados, etc.
- Reviving: revivir el sistema en base a un nuevo enfoque más protector de la privacidad.
Para cumplir con
estos cometidos, podemos utilizar diferentes principios y herramientas, que
pasamos a analizar a continuación y que creemos que deben presidir cualquier
sistema de Privacy by Design.
Los derechos de
acceso y rectificación junto con el principio de transparencia son pilares
básicos que han de gobernar el Big Data y por tanto, también se han de
configurar desde el inicio. Igualmente, siempre se ha de facilitar un derecho
de oposición fácil y gratuito, especialmente para la utilización de los datos
con fines comerciales y de publicidad.
El principio de
transparencia también exige que la información sea facilitada en un lenguaje
sencillo y accesible, para todos los sectores de población. Y la utilización de
sistemas como la información por capas, permiten al usuario localizar la
información que necesita de forma más rápida.
Es importante
que, los términos y condiciones de cualquier producto y servicio sean
vinculantes para la entidad que los ofrezca, obligando a recabar el
consentimiento de los usuarios antes de su modificación.
Conviene tener
presente el carácter internacional de muchos de los productos y servicios que
se ofrecen en la sociedad de la información y la dificultad jurídica que puede
representar determinar las leyes que resultan de aplicación a un determinado
producto o servicio. Por ello, el principio de transparencia es de suma
importancia, conviene que los productos o servicios que se ofrezcan a los
ciudadanos de un país permitan conocer de entrada cuál es su expectativa de
privacidad al utilizarlo y cuáles son sus derechos reales. Ello le permitirá al
menos, poder discriminar entre diferentes proveedores y escoger con propiedad
el que más le convenga.
Con carácter
previo puede ser conveniente realizar una evaluación de impacto de la
protección de datos (Privacy Impact Assessment. PIA). En esta evaluación de
impacto a la privacidad es necesario tener muy en cuenta las finalidades
concretas del tratamiento con el fin de determinar si es posible obtener el
mismo resultado mediante información anónima.
Además, la
finalidad del tratamiento nos ayudará a definir periodos de retención y tipo de
datos que sean estrictamente necesarios para el cumplimiento de la finalidad.
De este modo, se podrán definir plazos a partir de los cuales la información
puede eliminarse y cuando sea posible, se permitirá disociar la información de
carácter identificativo.
Este punto es
especialmente importante teniendo en cuenta el impacto energético que resulta
del actual consumo de datos y de asegurar su permanente accesibilidad. Es
necesario poder discriminar entre la información relevante y estrictamente
necesaria para el cumplimiento de la finalidad, de la que resulta no adecuada,
irrelevante u obsoleta para poder facilitar la eliminación segura de esta
última.
Otro punto que
será necesario tener en cuenta es el concepto de “dato de carácter personal” ya
que, depende del país de que se trate, dicha definición tendrá un carácter más
o menos amplio.
Será conveniente
determinar qué se consideran “datos sensibles” teniendo en cuenta que, con el
Big Data se podrán relacionar diferentes tipos de datos que, si bien en un
principio puedan ser considerados de nivel básico, valorados en su conjunto
permitan crear perfiles detallados de personas, hábitos y comportamientos que
merezca una mayor protección por pertenecer al ámbito íntimo de la persona.
También es
importante instaurar mecanismos de control de acceso a la información ya sean
por terceros o por los responsables del tratamiento que sean estrictos,
especialmente cuando se trate de datos sensibles, partiendo de la regla general
que solo podrían acceder o conocer aquellos que previamente han obtenido el
consentimiento del titular del dato personal o que exista una normativa de alto
rango como la ley que contemple excepciones en mérito del interés público.
En relación al
tratamiento de datos de menores con carácter general, se intentará adoptar
medidas que impidan o restrinjan su tratamiento. Cuando sea necesario, ya sea a
nivel educativo, de salud o social se procurará que el tratamiento cumpla
especiales cautelas, sirva para el cumplimiento de unas finalidades concretas y
en beneficio del menor, contando siempre con el consentimiento de sus padres o
tutores. Ha de procurarse que, no se produzcan consecuencias negativas para el
menor (evaluaciones, notas, ayudas, becas, temas de adopción, custodia, etc.)
derivadas de un tratamiento automatizado de datos, siempre ha de existir
mecanismos que aseguren un tratamiento y evaluación individualizada, con un
trato humano y personal.
En lo que
respecta a la relación entre el Big Data y el Internet de las Cosas o la
interconexión de datos entre máquinas (M2M) obliga a tener muy presentes la
transparencia, la privacidad por diseño y por defecto.
El usuario debe
saber cuándo compra determinados productos de este tipo cuáles son sus reales
expectativas de privacidad, ha de poder gestionar con facilidad sus
preferencias y determinar qué información, para qué finalidad y con quién la
quiere compartir. También ha de conocer los periodos de retención de los datos
y tener garantizados sus derechos de acceso, rectificación, oposición y
cancelación.
En lo que
respecta a la utilización de las técnicas de análisis de sentimientos
(sentiment analysis) que sirven para analizar los sentimientos de los usuarios
para intentar determinar sus preferencias a la hora de comprar un producto u
opinar sobre una decisión, al tener una connotación muy invasiva, solamente se
deberían poder utilizar con el consentimiento inequívoco del usuario.
Evidentemente, deberían de gobernar el resto de principios (transparencia,
retención limitada de datos, derechos de acceso, cancelación, etc.).
8. MARCO DEL GOBIERNO DE LOS DATOS
El gobierno de
los datos es un “marco de organización que armoniza la estrategia, define
objetivos y establece políticas para la información corporativa”, el cual
engloba la elaboración de un marco normativo al interior de las organizaciones
enfocado en la protección y gestión de los datos personales, abarcando por
ejemplo la definición de los procesos y políticas internas que reglamenten la
gestión de los datos personales.
Una vez definido
el modelo de gobierno de datos, será importante el proceso de implementación,
capacitación y adaptación, ya que la implementación de dicho modelo no tendrá
impacto únicamente en la definición de los procesos y políticas internas, sino
que se tendrá que empapar a la organización e incluso en su cultura
organizacional.
Es por lo
anterior que se habla de generar en las organizaciones una estructura de
gobierno de datos que entre otros contemple temas como la calidad, ciclo de
vida de los datos, seguridad y cumplimiento legal en materia de protección de
datos personales, y más aun tratándose de empresas que están en contacto,
procesan o generan información mediante Big Data, ya que por los grandes
volúmenes de información que manejan una adecuada gestión de los datos es
indispensable.
En alguna de las
legislaciones iberoaméricanas ya se contempla el que los responsables puedan
allegarse de estos modelos de gobierno de datos para el cumplimiento de las
obligaciones a su cargo, ya que se establece que el responsable podrá valerse
de estándares, mejores prácticas internacionales, políticas corporativas,
esquemas de autorregulación o cualquier otro mecanismo adecuado para tales
fines.
En lo que
respecta a la calidad de los datos, dentro de las organizaciones y como parte
de los puntos de control de las políticas y procesos que se establezcan en los
modelos de gobierno de datos, se deberán contemplar los riesgos que implican
factores como los registros manuales de los datos, errores humanos, flujo de
información entre departamentos, errores en procesos o incluso en los mismos
sistemas, ello incluso cuando hablemos de entornos controlados donde las
cantidades de datos o el flujo de los mismos sea muy poco.
Pero si este
tipo de errores los trasladamos a entornos globales de información como lo es
el uso de herramientas de Big Data que utilizan como fuente de información los
datos generados o circulantes en plataformas Web y dispositivos móviles, los
errores se pueden disparar exponencialmente, no sólo por los errores que se
pueden dar al interior de la organización sino también por lo complicado que es
saber si tales datos son confiables o verídicos.
En pro de que el
uso de los datos utilizados mediante Big Data sean lo más confiables posibles,
existen algunos modelos que ofrecen técnicas para mejorar la calidad de los
datos como por ejemplo, el perfilamiento, estandarización, mapeo,
categorización o anonimización de los datos.
Al principio la
implementación de estos modelos podría ser vista por las empresas como muy
costosa, pero en realidad a la larga se convierte en una ventaja, ya que al
utilizar las técnicas de Big Data se busca el que los equipos de marketing o
ventas puedan realizar por ejemplo campañas dirigidas a sus clientes de una
forma más efectiva, pero si partimos del hecho de que muchos de los datos
pueden ser falsos, en realidad los esfuerzos empleados no obtendrán resultados
certeros.
Por el
contrario, si se emplean las suficientes medidas que permitan eliminar datos
inexactos, incompletos o no estandarizados, aunque la muestra sea menor el
resultado será más exacto. Es decir, al final lo importante no es tener más y
más datos personales sino que los mismos sean de calidad.
El velar por la
calidad de los datos personales no sólo es importante para lograr la
satisfacción de las preferencias de los clientes, para optimizar la labor de
los departamentos de ventas y de mercadotécnica, o incluso para mejorar el
procesamiento de los datos en las áreas de tecnologías de la información, sino
que también es importante para el cumplimiento de las disposiciones legales
aplicables en materia de protección de datos personales.
Siendo por
ejemplo el caso de la legislación mexicana en la materia y la Directiva
95/46/CE, que establecen como obligación para los responsables el dar
cumplimiento y garantizar el principio de calidad de los datos personales, por
medio de:
- Los datos deberán ser exactos, completos, pertinentes, correctos y actualizados.
- Si los datos personales son proporcionados por el titular, se presume que se cumple con la calidad en los datos, hasta que se manifieste o acredite lo contrario.
Estableciéndose
además que el responsable adoptará los mecanismos que sean necesarios para
cumplir con los dos puntos anteriores, aún y cuando la información no se
obtenga directamente del titular.
Es por ello que
al ser un problema el que el Big Data no pueda garantizar que los datos sean
veraces, que mejor que dentro del modelo de gobierno de datos de las empresas
se empleen técnicas que nos ayuden a deputar los datos para quedarnos
únicamente con los datos que cumplan con el principio de calidad.
En lo
concerniente al ciclo de vida de los datos, en un modelo de gobierno de datos
es elemental el considerar el ciclo de vida de los datos o livecycle
management, ello sobre todo para las organizaciones que procesan datos mediante
plataformas de Big Data, ya que como se ha mencionado, los volúmenes de
información que procesan son muy grandes.
Dentro del ciclo
de vida de los datos se deben considerar tanto aspectos técnicos como el
volumen, velocidad y complejidad, así como aspectos legales que tienen que ver
con la creación, almacenamiento, tratamiento, transferencia, remisión,
archivado definitivo o destrucción de los datos personales, así como las
finalidades del tratamiento de dichos datos.
En algunas
legislaciones Iberoamericanas, se establece que los plazos de conservación de
los datos personales no deberán exceder de los que sean necesarios para el
cumplimiento de las finalidades del tratamiento, ello tomando en cuenta la
legislación aplicable en casos especiales como los datos financieros, de salud,
contables, fiscales e históricos, los cuales por sus características y
particularidades suelen tener plazos de conservación especiales (normas
sectoriales).
Cuestión no
menos importante es la relativa a la seguridad ya que como se analizó en el
apartado de seguridad de los datos, existen diversos riesgos que pueden poner
en peligro la seguridad, la confidencialidad, la integridad, la disponibilidad
e incluso la privacidad de los datos, es así que la seguridad no sólo debe
estar contemplada en las plataformas y elementos de las tecnologías de la
información y comunicaciones, ya que agentes diversos como el descuido de una
persona o por el mal acondicionamiento y seguridad de las instalaciones,
también se pueden poner en riesgo los datos personales.
Es por ello que
adicional a las medidas de seguridad técnicas, se deben implementar también las
administrativas y las físicas, entre las que destacan:
La capacitación,
actualización y concienciación de las personas que intervienen en temas de
seguridad y protección de datos al interior de la organización.
Esto se puede
realizar mediante programas de capacitación, ya que incluso, al realizar tales
capacitaciones de manera periódica se evita el que por cambios o rotación de
personal lo impartido quede en el olvido o que las nuevas personas no tengan
los conocimientos necesarios.
El empleo de
técnicas de anonimización, mediante las cuales se logra que los datos
personales no puedan ser asociados con su titular, es decir, después de aplicar
una técnica de anonimización deberá ser irreversible el ligar a un dato con su
titular.
Se deberá
realizar el análisis de riesgos que consiste detectar la diferencia entre las
medidas de seguridad existentes y las faltantes que resulten necesarias para la
protección de los datos personales.
La importancia
de este análisis de riesgos reside en que no sólo se quede en la detección de
los elementos ausentes, sino que se realice un plan de trabajo que permita su
implementación en la organización, precisamente para subsanar las deficiencias
detectadas.
Se deberá
contemplar el procedimiento y las acciones a realizar en caso de sufrir
vulneraciones o brechas de seguridad, se debería tener en cuenta:
- Se entiende como vulneración a la seguridad de datos personales la pérdida, destrucción, robo, extravío, copia, uso, acceso, tratamiento, daño, alteración o modificación no autorizados.
- Cuando el responsable detecte vulneraciones de seguridad, informará al titular cuales fueron las vulneraciones que afecten de forma significativa sus derechos patrimoniales o morales (Informe sobre Vulneraciones).
- El informe sobre vulneraciones se realizará en cuanto se confirme que ocurrió la vulneración y se hayan tomado las acciones para detonar la revisión exhaustiva de la magnitud de la afectación.
Esto con la
finalidad de que los titulares afectados puedan tomar las medidas adecuadas
para proteger sus datos e información con ellos relacionada.
El responsable
deberá analizar las medidas que correspondan para que la vulneración detectada
no vuelva a ocurrir.
En lo referente
a la protección de los menores, los datos personales deben recibir una
protección y tratamientos especiales. Es así que las empresas pueden establecer
lineamientos en donde se estipule si existe o no la necesidad de recopilar
datos de menores de edad, los límites o rangos de edad de los menores respecto
de los cuales se recopilen datos, así como los productos y servicios a los que
tendrán acceso, lo anterior ayudará a su vez a la definición de las finalidades
del tratamiento de los datos.
Una vez
definidos los casos en los que será procedente la recopilación de datos de
menores de edad, se tomarán medidas para:
- Informar en el aviso de privacidad sobre la recopilación de los datos de los menores y sobre las finalidades de su tratamiento.
- Establecer los mecanismos mediante los cuales los padres o tutores otorgarán su consentimiento para el tratamiento de los datos personales de los menores de edad, así como para el ejercicio de los derechos de acceso, rectificación, cancelación y oposición de los datos personales, ello también a través de sus padres o tutores. De otorgar el consentimiento el propio menor, al ser por ejemplo español mayor de 14 años, se deberá utilizar un lenguaje adecuado a su edad.
- Decidir si es indispensable que los datos personales de menores de edad sean tratados mediante las técnicas de Big Data, y en su caso, establecer medidas como la anonimización o depuración de los datos personales, de manera que no se causen afectaciones a los menores y se utilicen únicamente los datos que sean indispensables.
La obligación de
transparencia en estos tratamientos de Big Data conlleva a que entre la
información que debería contener el aviso de privacidad, se encuentre el dar
conocer las finalidades del tratamiento de los datos personales recopilados, lo
que en caso de que se realice el procesamiento de información mediante las
técnicas de Big Data, tal finalidad también deberá ser informada al titular.
En el Aviso de
Privacidad también se debería informar respecto a las medidas de seguridad
físicas, administrativas o técnicas que limiten el uso, acceso o divulgación no
autorizada de los datos personales, así como en los casos en los que se realiza
el procesamiento de información mediante Big Data se informarán sobre de las
técnicas especiales utilizadas, tales la anonimización de los datos.
Es también
importante que la información contenida en el aviso de privacidad y sobre toda
la referente a las finalidades del tratamiento y medidas de seguridad
utilizadas, sea redactada de una forma clara, sencilla y que se enfoque al
tipo, grupo o sector al que van dirigidos los productos o servicios, en caso la
explicación comprenda inevitablemente algún nombre técnico también se deberá
dar una breve explicación de este, elemento que podría ser problable dada las aplicaciones
tecnológicas de la herramientas de Big Data.
En lo que
respecta a los derechos de acceso, rectificación, cancelación y oposición
(ARCO), el análisis sobre el ejercicio de los derechos, se puede realizar en
dos partes: respecto de los datos personales obtenidos de fuentes de Internet
en las cuales cualquier persona tiene acceso, y respecto de los datos obtenidos
directamente de su titular, o cuando se obtienen de manera indirecta pero que
es posible localizar al titular:
- Sobre en plataformas o sistemas de Big Data alimentadas por datos personales obtenidos de fuentes de Internet accesibles al público, el ejercicio de los derechos de acceso, rectificación, cancelación y oposición, es realmente complicado y desproporcionado al ser casi imposible saber cuántos responsables de tratamiento los han utilizado.
- Respecto de los datos obtenidos directamente de su titular, o de manera indirecta pero cuando es posible localizar al titular, desde el aviso de privacidad se deberá dar a conocer al titular de los datos que los mismos serán tratados para el procesamiento de información mediante Big Data, dando oportunidad al titular para otorgar o no su consentimiento.
Una vez obtenido
el consentimiento para el tratamiento de los datos mediante Big Data, se deberá
establecer el procedimiento y medidas necesarias al interior de la organización
para garantizar la atención de los derechos de acceso, rectificación,
cancelación y oposición, ello cuando exista la posibilidad de identificar al
titular. Ya que respecto a datos estadísticos o datos cuya disociación se haya
realizado de manera previa y plena, no hay posibilidad de identificar a sus
titulares.
Para finalizar
indicaremos que en base al principio de accountability, al igual que el resto
de las empresas, personas u organizaciones que recopilan, tiene acceso o tratan
datos personales, quieres recopilen o procesen información mediante Big Data
están obligados al cumplimiento con las obligaciones que conforme a la
legislación les sean aplicables, debiendo justificar su actuación conforme a la
legalidad vigente y respondiendo en caso de incumplimiento.
9. BIG DATA Y CLOUD COMPUTING
Cuando las
empresas no pueden costearse la infraestructura física necesaria para analizar
grandes volúmenes de datos desestructurados, recurren al sistema conocido como
Cloud Computing.
Muchos
proveedores de almacenamiento de datos se erigen en Cloud Services Provider
(CSP) directamente o mediante acuerdos y ofrecen soluciones basadas en Cloud
Computing como parte de su actividad de negocio (catálogo de servicios además
del catálogo de productos) y las comercializan entre los clientes como
soluciones más asequibles y accesibles.
En esencia, las
empresas cliente alquilan espacio de almacenamiento y potencia de proceso en
servidores virtuales, a los que pueden acceder en línea. Estos servidores están
equipados con sofisticadas aplicaciones que han sido diseñadas especialmente
para manejar y analizar grandes volúmenes de datos.
La ventaja para
los clientes es que pueden conseguir resultados rápidamente a un coste
razonable. Además pueden acceder al asesoramiento y soporte del proveedor como
apoyo al diseño y a la ejecución de los proyectos.
Desde el punto
de vista de la protección de la privacidad, lo primero que tenemos que tener en
cuenta a la hora de contratar una herramienta de estas características es que
se va a producir un acceso a datos y por ello, se deben reflejar en el contrato
que nos ofrece el proveedor las estipulaciones sobre el acceso a datos
reguladas en las diferentes legislaciones nacionales que se han tomado en serio
esta materia.
Es por ello que
antes de contratarla, se nos debe facilitar información transparente que
posteriormente debe quedar plasmada en el contrato sobre los usos, finalidades
y alcance del acceso a datos, la implantación de medidas de seguridad, la
devolución o destrucción de los datos cuando finalice el servicio, las
subcontratas previstas y, en el caso de no conocerse en ese momento, la manera
de solicitar autorización previa al responsable del tratamiento.
Otro aspecto
vital del Cloud Computing es la ubicación del servidor, (o alguna de sus copias
de seguridad) puesto que según en qué lugar del mundo esté ubicado nuestro
servidor virtual en el Cloud Computing, cuando introduzcamos datos personales
en él, podrá considerarse una simple cesión (que puede resolverse mediante la
suscripción del preceptivo contrato entre responsable y encargado del
tratamiento) o bien una Transferencia Internacional de Datos (TID) que conlleva
obligaciones legales adicionales en los países que cuentan con legislación en
protección de datos.
El tercer
aspecto a considerar en los servicios de Cloud Computing es la necesidad de
garantizar la disponibilidad, la integridad y la seguridad de la información.
Adquieren especial relevancia en este tipo de tratamientos, aunque por el nivel
de seguridad no se esté obligado a implantarlas, la posibilidad de permitirnos
la realización de backups o copias de seguridad externas a la aplicación, la
posibilidad de configurar perfiles de usuarios que delimiten los recursos a los
que se puede acceder y con qué privilegios de acceso, la gestión de una
política de renovación periódica de contraseñas y que estas sean robustas
(incluyendo mayúsculas, minúsculas, números y símbolos especiales), la aplicación
de mecanismos de cifrado sobre todo si estas herramientas utilizan la
funcionalidad del Cloud Computing o si se realizan continuas importaciones o
exportaciones de datos, la de poseer un registro de incidencias en la que se
puedan consignar aquellas que afectan a la seguridad o a la integridad de los
datos y la de tener activado el registro de accesos al sistema con revisión
periódica del mismo.
También son más
que recomendables para estos tratamientos masivos de datos la limitación y
registro de las importaciones y exportaciones de datos desde o hacia la
herramienta al personal debidamente autorizado y la monitorización de esas
actividades, ya que en caso contrario sería recomendable la eliminación o
capado de sitios Web de correo electrónico o Cloud Computing, de grabadoras de
CD-DVD o puertos USB y la instalación de herramientas de monitorización de
equipos y correos electrónicos a los usuarios de estas herramientas.
En el dictamen
05/2012, de 1 de Julio de 2012 sobre la computación en nube, el Grupo de
Trabajo del Artículo 29 (GT29) analiza todas las cuestiones pertinentes en
materia de Proveedores de Servicios de Cloud Computing (CSPs) que operan en el
Espacio Económico Europeo (EEE) y sus clientes, especificando todos los
principios aplicables de la Directiva europea sobre protección de datos
(95/46/CE) y de la Directiva sobre privacidad 2002/58/CE (modificada por la
Directiva 2009/136/CE), según proceda.
El GT29 advierte que a pesar de las claras
ventajas de la computación en nube, tanto en términos económicos como sociales,
el despliegue a gran escala de los servicios de computación en nube puede
provocar diversos riesgos para la protección de datos, principalmente la falta
de control sobre los datos personales, así como la insuficiente información en
relación a cómo, dónde y por quién son los datos tratados o subtratados.
Los organismos
públicos y las empresas privadas deben evaluar estos riesgos cuidadosamente al
contratar los servicios de un CSP.
En el Dictamen
examina cuestiones relacionadas con:
- La puesta en común de recursos con otras partes.
- La falta de transparencia de una cadena de externalización compuesta por múltiples encargados del tratamiento y subcontratistas.
- La inexistencia de un marco común general de portabilidad de datos.
- La incertidumbre con respecto a la admisibilidad de la transferencia de datos personales a los proveedores establecidos fuera del EEE.
Del mismo modo
se aborda en el dictamen, como cuestión preocupante, la falta de transparencia
en cuanto a la información que un responsable del tratamiento puede
proporcionar a los interesados sobre la manera en que se tratan sus datos
personales. Los interesados deben ser informados de quién trata sus datos y
para qué fines, a fin de poder ejercer los derechos que tienen a este respecto.
Una de las
principales conclusiones es que las empresas y las Administraciones Públicas
que deseen utilizar la computación en nube deben efectuar, como un primer paso,
un análisis de riesgos completo y riguroso.
Los proveedores
en el EEE deben proporcionar al cliente toda la información necesaria para
evaluar adecuadamente los pros y los contras de la adopción de tal servicio.
Los principales
impulsores de la oferta de servicios de computación en nube para los clientes
deberán ser:
- La seguridad
- La transparencia
- La seguridad jurídica
Por lo que
respecta a las recomendaciones contenidas en el dictamen, se subrayan las
responsabilidades de un cliente de servicios de computación en nube como
responsable del tratamiento y se recomienda, por tanto, que el cliente
seleccione un proveedor de servicios de computación en nube que garantice el
cumplimiento de la legislación de la UE sobre protección de datos.
El dictamen
aborda las salvaguardias contractuales apropiadas estableciendo la condición de
que todo contrato entre el cliente y el proveedor deberá ofrecer garantías
suficientes en términos de medidas técnicas y organizativas. También es
importante la recomendación de que el cliente de servicios computación en nube
deberá verificar si el proveedor de tales servicios puede garantizar la
legalidad de las transferencias internacionales de datos.
10. OTROS ASPECTOS A CONSIDERAR
Las
incertidumbres sobre los potenciales impactos negativos que pueda generar el
tratamiento masivo de información aconsejan adoptar posturas garantistas,
especialmente en relación al derecho a la protección de los datos de carácter
personal, la privacidad o la intimidad, pero también respecto de la salvaguarda
de otros derechos y libertades, tanto individuales como colectivos, que
pudieran verse afectados por el conjunto de actividades que se ocultan bajo el
concepto Big Data.
Todo y que el
punto de partida sea de una cierta desconfianza y recelo, a priori generada por
los propios agentes relacionados con el Big Data, en base a la opacidad con la
que llevan a cabo sus actividades, sin duda pueden encontrarse puntos de
encuentro entre:
- Las necesidades, ya sean públicas o privadas, del tratamiento masivo de la información y
- Las condiciones y límites que necesariamente deben imponerse a ese tipo de tratamientos y a los usos posteriores.
A título de
ejemplo como comentamos anteriormente, el estudio “Big Data: aprovechar las
oportunidades, preservando los valores”, publicado el 1 de mayo de 2014, por la
Casa Blanca, elaborado a petición del presidente Obama, que encargó a sus
asesores que elaboraran un informe que dictaminara sobre la manera en que el
Big Data podía afectar a la vida las personas, ponen de relieve la preocupación
que el Big Data suscita en los poderes públicos; estos deben tomar partido, y
adoptar políticas adecuadas para minimizar los riesgos que puedan derivarse del
tratamiento masivo de información.
No hay duda de
los potenciales beneficios que para la sociedad en su conjunto pueden derivarse
del Big Data, entre ellos su aportación al crecimiento y desarrollo económico,
pero hay que estar alertas respecto de los nuevos retos y riesgos que el Big
Data puede suponer tanto para la privacidad, como para otros derechos y libertades
individuales y colectivas.
En ese sentido,
las políticas públicas y las tecnologías, juegan un papel importante en la
protección de los derechos y libertades que puedan verse afectados por el
tratamiento masivo de información y, especialmente, respecto del uso que se
pueda hacer del resultado del procesamiento de esa información.
Las actividades
relacionadas con el Big Data no siempre implican el tratamiento de datos de
carácter personal, por tanto no siempre se va a dar la componente de impacto
sobre la autodeterminación informativa, ahora bien, no debemos perder de vista
que la información relacionada con las personas, una vez tratada, es la que
puede llegar a aportar más valor a los procesos de negocio, a la investigación
científica, o a las necesidades de inteligencia de los estados en tanto
garantes de la seguridad pública o para la definición y aplicación de políticas
públicas.
Los datos
personales pueden estar presentes de dos maneras, una de tipo indirecto, cuando
en origen los datos eran de carácter personal, y han sido sometidos a
tratamientos de disociación -aparentemente dejan de ser datos personales, pero
existe el riesgo de re-identificación-, y por tanto, a priori, los resultados
de su tratamiento no aplican a personas concretas identificadas o
identificables, o bien de manera directa, cuando el tratamiento Big Data se
lleva a cabo directamente sobre datos personales.
Por tanto
podemos afirmar que si bien hay situaciones en que Big Data y privacidad van en
paralelo, no es menos cierto que pueden existir abundantes casuísticas en que
se crucen, por tanto en que aparezcan puntos de contacto o fricción que hay que
gestionar convenientemente.
Desde el punto
de vista del uso social de la tecnología, en un primer momento esta suele
provocar en las personas un estado de cierta “fascinación”, de ahí su rápida
adopción, que suele al poco tiempo llevar a una fase de “deslumbramiento”, en
el que se producen efectos hasta cierto punto contradictorios, por un lado lo
último siempre es lo mejor, de manera que las tecnologías emergentes son
rápidamente adoptadas, pero a la vez se impone el “discurso tecnológico
dominante” que gana adeptos de manera continuada, solo por el hecho de ser
dominante, sin que como individuos entremos en otras consideraciones o
reflexiones respecto de la utilidad o conveniencia de su uso.
Del
“deslumbramiento” se pasa a la siguiente etapa, de la más absoluta “ceguera
digital”, y es en ese estado en el que emergen los riesgos. ¿Aceptamos una
sociedad con un conocimiento filtrado y mediatizado? En definitiva sociedades
controladas. ¿Estamos dispuestos a que ciertas las tecnologías limiten el libre
desarrollo de la personalidad? ¿Sólo vamos a atender a los riesgos
individuales, dejando de lado a los riesgos colectivos derivados del Big Data?
El uso de Big
Data para llevar a cabo predicciones es más que conocido, pero tal vez el
futuro nos depara otros usos, por ejemplo el de la inducción o modificación de
comportamientos; o acabemos en un escenario donde impere el determinismo del
dato, en el que solo el “análisis mecánico” de los datos vaya a mover las
decisiones, llevándonos a un “estado totalitario del dato”, en el que
decisiones transcendentales que afecten a las personas, de manera colectiva o
individual, se vayan a tomar exclusivamente en base al análisis de datos, lo
que puede llevar a la aparición de nuevos modos de discriminación en base a
esos análisis de información masivos.
Tal vez como
rechazo a esos riesgos empecemos a hablar en un futuro no muy lejano de “la
objeción de conciencia digital”, es decir, tener la capacidad de oponernos a
que nuestros datos sean utilizados, incluso aunque sea de manera anonimizada,
pero eso sí, sin renunciar a los beneficios de las tecnologías.
Conviene
plantearse la necesidad de regular esas actividades, y ante el escenario descrito
pueden adoptarse diferentes posturas desde la perspectiva regulatoria:
- Optar por la postura de que en tanto exista tratamiento de datos personales se aplica la regulación vigente, y cuando no hay dato personal se deja de aplicar, con lo cual nos encontramos en una situación de desregulación del Big Data, con la inseguridad jurídica que ello puede generar para todas las partes, de hecho este es el estado actual de la cuestión.
- Si bien hay que ampliar el alcance de la regulación de los datos personales a situaciones en que ya no hay datos personales, lo que supondría una excepción más que relevante por lo que respecta al ámbito de aplicación material de la regulación del derecho a la protección de los datos de carácter personal y
- Si tal vez debe de ser una actividad regulada de manera específica, a la que apliquen unos límites, garantías y condiciones propios, en virtud de los riesgos colectivos que puede implicar.
Lo “peligroso”
no es el Big Data en sí mismo, si no dejarlo exclusivamente en manos del
mercado y sin ninguna regulación. Una regulación que debería desarrollarse en
base a unos principios claros, tales como:
- El “principio de inocuidad”, por el que los usos del Big Data bajo ninguna circunstancia deben perjudicar ni a los individuos, ni a la humanidad” y que, en todo caso, las excepciones a este principio deben ser establecidas por los legisladores desde una perspectiva restrictiva y garantista.
- El “principio de objeción”, por el que las personas puedan oponerse, de manera previa o a posteriori, a que su datos sean tratados, incluso de forma anonimizada, y sin que ello les impida usar las tecnologías.
- El “principio de seguridad”, las actividades de Big Data deben estar especialmente protegidas, a fin de evitar incidentes accidentales o malintencionados que pongan en riesgo a la información.
- El “principio de respeto al libre desarrollo de la personalidad”, deben prohibirse usos del Big Data que impliquen la modificación de comportamientos y el determinismo del dato.
- El “principio de responsabilidad”, por el que en todo momento debe poder atribuirse una determinada actividad de Big Data a una persona física o jurídica y, en su caso, exigirle responsabilidades.
- El “principio de transparencia”, por el que deben articularse mecanismos que permitan que las personas afectadas sean conocedoras del uso que se hace de sus datos.
11. ESPECIALIDADES DE BIG DATA
11.1 Open Data, Smart Cities y Administraciones
Públicas
Si Big Data se
define por su tamaño y el Open Data por su utilidad. Open data es el concepto
utilizado para los datos abiertos y accesibles al público, compañías y
organizaciones que los pueden utilizar para lanzar nuevos productos o
servicios, analizar patrones, tomar decisiones, etc.
La estrategia
Open Data nació el año 2009 en Washington y se refiere a la posibilidad de que,
el ciudadano acceda a los datos del gobierno que, antes sólo eran analizados en
el interior de las administraciones públicas. Actualmente el concepto se ha
extendido a los países europeos a través de la Agenda Digital Europea y también
a algunos países Iberoamérica como Argentina, Chile, Colombia y Perú.
En el modelo
Open Data los datos deben ser accesibles a cualquier persona y se han de
facilitar de modo que, permitan su utilización con fines comerciales o no
comerciales. Estos datos han de ser accesibles de forma gratuita o a un coste
mínimo. Y esto es así porque entienden que en nuestra sociedad de redes y bajo
el gobierno de la información, el derecho a acceder a la información pública se
erige como un derecho humano fundamental, en virtud del cual las personas
pueden tomar conocimiento de la información que elaboran o poseen los órganos
del Estado. Se basa esto, y lo reafirma
a la vez, en el aporte relevante que puede generar esta información al
conocimiento, expresión, reflexión y debate público de las ideas.
De ahí que, la
información que se publique no debe ser definitiva, en virtud de que puede
contener diversos estudios, informes, etc., que han servido como base para la
prestación de un servicio por parte de la entidad pública. De esta forma, la
imagen de la administración pública de cara a la sociedad será percibida de
manera distinta y no como un ente cerrado y opaco.
Open Data no
sólo se ha de referir a los datos de los gobiernos, también podría abrirse por
parte de empresas de transporte, bibliotecas, universidades, museos, arte y
cultura, consumo energético, geología, astronomía, temas de educación, etc. y
se han de facilitar en un formato electrónico normalizado.
El uso avanzado
de información de la administración se ha de construir sobre una base que
permita, no sólo mejorar la transparencia, eficiencia y eficacia de las
Administraciones Públicas sino también, garantizar los derechos y garantías
jurídicas de los ciudadanos. Producto de la ejecución de una política
pública previamente diseñada, las
legislaciones deben contener disposiciones para garantizar fortalecer e
incentivar la transparencia y publicidad de la información pública que permitan
erradicar las asimetrías de información entre el Estado y los ciudadanos
existentes bajo la cultura de la opacidad.
Por este motivo,
es importante revisar y adaptar la normativa jurídica vigente, teniendo en
cuenta las características específicas de cada materia o archivo (datos
históricos, datos de salud, antecedentes penales, etc.) y redefinir las
relaciones con los ciudadanos y empresas y sus derechos.
Hay que tener en
cuenta que, aunque la información relativa a una persona identificada o
identificable esté a disposición del público, debe seguir estando protegida por
la legislación sobre protección de datos, garantizando los derechos, libertades
y dignidad de las personas interesadas.
A la hora de
determinar en cada caso, si la información se facilita, la entidad pública
deberá:
- No incluir datos personales, por ejemplo, facilitando datos estadísticos, lo cual excluiría limitaciones referentes a la normativa de protección de datos como la necesidad de consentimiento, finalidad determinada, proporcionalidad, etc.
- Anonimizar, en este caso, se deberá garantizar que se han empleado las técnicas y evaluaciones necesarias para evitar que estos datos puedan ser reidentificados. Se deberá evaluar y realizar pruebas sobre el riesgo de reidentificación. Si el resultado de estas valoraciones no es positivo, la Autoridad competente debería establecer limitaciones, de acuerdo con el apartado siguiente o bloquear su publicación.
En el supuesto
de incluir datos personales, las garantías de protección de datos e intimidad
de las personas resultan plenamente aplicables y por tanto se requerirá:
- Que la publicación de estos datos sea compatible con las finalidades determinadas en el momento de su recogida (evitar finalidades incompatibles, por ejemplo mensajes comerciales no solicitados, etc.).
- Deberá existir una base jurídica sólida para la publicación (basada en el consentimiento del afectado o en el complimiento de una ley claramente definida con un objetivo legítimo).
- La divulgación de estos datos ha de ser siempre necesaria y proporcionada al objetivo legítimo perseguido por la normativa.
- Establecer condiciones específicas y salvaguardas para su utilización.
La
Administración deberá aplicar un criterio de prudencia antes de decidir cómo
publicará la información ya que, una vez los datos se han puesto a disposición
del público y son accesibles a través de internet, es muy difícil limitar su
uso y garantizar el cumplimiento de las normas sobre protección de datos.
También
convendrá revisar las normativas sectoriales y específicas, con el fin de
evitar resultados incompatibilidades o contradicciones. Por ejemplo que, al
relacionar datos publicados por la administración, con otros datos accesibles a
través de internet, pueda resultar en finalidades incompatibles.
La limitación de
la finalidad ha de estar siempre presente en el modelo de Open Data, para
garantizar un tratamiento compatible con la recogida inicial.
Para la
evaluación del tratamiento ulterior de los datos se tendrá en consideración:
- La relación entre los fines para los que se recogieron los datos personales inicialmente y los fines de su tratamiento ulterior.
- El contexto en el que se recogieron estos datos y expectativas razonables de los interesados de su posterior uso.
- Naturaleza de los datos personales e impacto del tratamiento ulterior en los interesados.
- Medidas de salvaguardia para garantizar un tratamiento leal y evitar repercusiones indebidas al interesado.
Deberá aplicarse
un principio de proporcionalidad y de minimización de datos, solo publicar los
datos estrictamente necesarios para cumplir con una finalidad concreta y
determinada.
También se
deberá de tener en cuenta como se accede a estos datos y garantizar que los
datos personales de los afectados quedan protegidos incluso si se trasladan a
otros estados o países. Para ello deberán establecerse garantías adecuadas.
En lo que
respecta a la conveniencia de realizar de manera previa una evaluación e
impacto de la protección de datos, antes de que la administración pública
decida abrir determinados archivos o información al público en base al concepto
de Open Data podría entenderse como una buena práctica, ya que serviría para:
- Evaluar los riesgos derivados de la apertura de esta información e impacto en la intimidad de los afectados, especialmente teniendo en cuenta que, la información incluso si se publica de forma anónima, puede llegar a identificar a una persona si se relaciona con otra información pública o disponible en internet.
- Aplicar los principios de privacidad por diseño y por defecto.
- Determinar en qué condiciones y garantías se puede permitir su utilización. Valorar el establecimiento de una licencia de uso que determine limitaciones en la utilización, así como responsabilidades y sanciones en caso de incumplimiento.
- Fijar una base jurídica para su divulgación que establezca finalidades determinadas y actuaciones prohibidas.
- Aplicación de los principios básicos de protección de datos: limitación de la finalidad, proporcionalidad, calidad, minimización de datos.
- Escuchar a todas las partes interesadas y tenerlas en consideración, para poder equilibrar los riesgos en juego, antes de decidir la publicación de estos datos (autoridad pública titular de los datos, entidades privadas que interesa acceder a dichos datos y representantes del colectivo de personas afectadas).
- Contar con el soporte y consejo de las autoridades de protección de datos.
También es
importante que, se fomente la cooperación entre diferentes organizaciones
públicas con el fin de que se compartan buenas prácticas y códigos de conducta
relativos a la apertura de datos entre las diferentes entidades públicas, a
nivel estatal, provincial o local.
En lo que
respecta al uso de tecnologías de Big Data por parte de las Administraciones
Públicas, al poderse procesar no sólo información obrante en varias
Administraciones Públicas, otras empresas o terceros sino también, información
disponible en Internet (por ejemplo, redes sociales, blogs, foros, webs…),
estos tratamientos pueden tener una especial relevancia en las actuaciones
inspectoras de la administración, actuaciones policiales, en el control de
subvenciones, prestaciones por bajas médicas, subsidios de desempleo, etc.
En un contexto
internacional, países como Estados Unidos, han declarado la utilización del Big
Data en la administración pública como una prioridad gubernamental, particularmente
por la reducción de costo y tiempo que implica el procesamiento de la
información. Esto, a través de diversas iniciativas: DoD USA (2011), D2D Data
to Decission y la Iniciativa Big Data de la Casa Blanca (2012).
La Comisión
Económica de las Naciones Unidas para Europa (UNECE) también ha incluido el
aprovechamiento estadístico de los Big Data entre sus temas de interés
estratégico para este año.
Actualmente
algunas Instituciones y Administraciones Iberoamericanas han declarado que
utilizará los beneficios del Big Data para la obtención de indicadores que
permitirán tomar decisiones de política pública, y es justo en este punto en
donde se centra el desarrollo de la presente opinión.
El Big Data
utilizado por las administraciones públicas será suministrado de información,
particularmente sensible: datos de todos los ciudadanos, que concentrado en una
sola plataforma de información, resulta peligroso, particularmente en relación
a la privacidad y la protección de datos personales de los ciudadanos.
Por todo ello,
el uso del Big Data en el ámbito de la administración ha de configurarse sobre
un principio de transparencia más elevado pues mucha información que se obtenga
podrá provenir de terceros o sin el conocimiento del afectado.
En el tratamiento
de esta información es importante tener presentes los derechos básicos del
ciudadano en materia de protección de datos basados en el consentimiento para
el tratamiento de datos, el principio de finalidad y en los derechos de acceso,
rectificación, cancelación u oposición. Y todo ello, sin olvidar un derecho de
indemnización a favor del afectado en caso de que, la actuación de la
administración haya vulnerado dichos principios y con ello haya causado daños y
perjuicios que deban ser reparados.
El derecho de
los ciudadanos a resarcirse de los daños y perjuicios causados por un
defectuoso tratamiento o vulneración de los procedimientos y garantías básicas
por parte de la administración, puede ayudar a conseguir un mejor equilibrio y
funcionamiento del sistema, en el sentido de que, la administración no se verá
tentada a tratar información de forma indiscriminada y a basar sus decisiones
estrictamente en un tratamiento automatizado. No obstante, para su efectividad
es necesario que el acceso de los ciudadanos a este resarcimiento no se vea
desnaturalizado por procedimientos demasiado burocráticos y costosos.
Si la
administración pública desea adoptar decisiones basadas en información que no
ha sido facilitada por el propio usuario hay que preguntarse dónde se sitúan
los límites ya que, esta información podría traer graves consecuencias contra
el usuario (por ejemplo, inicio de una actuación inspectora) y estas
consecuencias podría tener su origen en información falsa, incorrecta u
obsoleta.
En este sentido,
se podría valorar un sistema que estableciera una serie de garantías, tales
como:
- Limitación en las finalidades, esta información solamente se puede utilizar por determinados sujetos y para finalidades concretas “numerus clausus”.
- En relación a datos de salud (o datos sensibles en general) exigir la adopción de medidas más estrictas, consentimiento reforzado y relevancia para su tratamiento.
- Calidad en los datos (completos, actualizados y exactos), no se pueden recabar datos de forma indiscriminada sino, los que son relevantes para la concreta finalidad que han de cumplir.
- Un importante derecho de acceso y rectificación, incluyendo un procedimiento para permitir al usuario poner en duda la información de que dispone la entidad cuando no es correcta, y permitir rectificarla. Todo ello, con carácter previo a que se pueda utilizar esta información para evaluar al sujeto. Igualmente, el afectado ha de disponer de un derecho de acceso a obtener esta información siempre que lo interese, de forma fácil y accesible. Este derecho de acceso debería permitir conocer el origen de la información para facilitar un mejor control sobre los propios datos. En el caso de las administraciones públicas el derecho de acceso debería facilitarse de forma gratuita.
- Igualmente las administraciones deberían hacer accesibles los criterios en base a los cuales adoptan decisiones basadas en esta información.
- Transparencia y “accountability”: la actuación de las administraciones públicas deberá estar gobernada por un principio de transparencia y sujetas a una obligación de responsabilidad de sus actuaciones y debiendo rendir cuentas frente los ciudadanos.
El respeto a los
derechos de privacidad e intimidad de las personas, a la libertad de expresión
y el derecho a la legítima defensa no deben verse mermados por la utilización
del Big Data en la administración pública puesto que, su finalidad es servir a
sus ciudadanos, regular y mejorar el buen funcionamiento de la sociedad, no
convertirse en un estado policial o en un Big Brother.
En lo que
respecta al uso del Big Data y su contribución al desarrollo de “Smart Cities”
ciudades inteligentes, basadas en un modelo de sostenibilidad y eficiencia
respondiendo a las necesidades básicas de sus habitantes, instituciones y
empresas:
- Contribuyendo a una gestión más eficiente y sostenible de los recursos naturales. Creando patrones de consumo que permitan mejorar la planificación y utilización de las energías alternativas, promoviendo la sostenibilidad y el ahorro. Por ejemplo, con una gestión eficiente del alumbrado público, sólo en las horas que no hay luz natural.
- Fomentando la participación ciudadana para conocer sus necesidades y mejorar los servicios. También para permitir valorar los servicios o denunciar situaciones de forma fácil y ágil, a través de Internet o mediante aplicaciones móviles y de este modo, poder obtener una solución más rápida y eficaz a través de la denominada Administración electrónica.
- Contribuyendo en una planificación más eficaz del transporte público a partir de múltiples sensores ubicados estratégicamente y de dispositivos móviles de los ciudadanos, para por ejemplo mejorar la gestión de aparcamientos, evitar retenciones o mejorar la circulación.
- Mejorando y optimizar las redes de telecomunicaciones garantizando su continuidad y calidad.
- Utilizando de sensores en los trenes para detectar actividad sísmica y en caso de advertir una actividad inusual, enviar un mensaje para desactivar los trenes. Este sistema ya se está utilizando en los trenes de alta velocidad de Japón.
- Mejorando la calidad de vida y medio ambiente a mediante sensores de polución (mejorar la calidad del aire con reducción de emisiones de CO2, del agua, ruido, residuos, espacios públicos, etc.).
- Mejorando la eficiencia energética en edificios públicos y privados (organizaciones públicas, universidades, escuelas, etc.).
- Optimizando los recursos destinados a la salud pública. Muchos seguimientos de pacientes podrían realizarse sin que éste acudiera físicamente al centro médico, ayudando de este modo a descongestionar las consultas.
- Gestionando eficiente de residuos y reducción de emisiones, contaminantes, etc.
- Desarrollando redes inteligentes (Smart grid) que permitan el control del consumo energético, lectura de datos en tiempo real (mediante “Smart meters” o medidores inteligentes), facturación automática y facilitar acceso a los ciudadanos de aquella información que pueda servir para el ahorro, eficiencia y mejora (facilitando el acceso al ciudadano sobre los datos de su consumo energético, permitiendo que los pueda gestionar, visualizar por internet, ver estadísticas sobre su consumo y solicitar cambios de consumos y tarifas; reduciendo el tiempo de solución de averías y reclamaciones).
La información, tal como se ha indicado, no solamente ha de ser accesible y gestionada por las administraciones públicas sino que, es importante mejorar y fortalecer el concepto de “open government” ya que, de otro modo se produciría un desequilibrio pues, muchos de estos datos provienen justamente de los mismos ciudadanos. Por ello el uso de estos dispositivos debe adecuarse a las medidas garantistas mencionadas con anterioridad.
11.2 Big Data y Sanidad
El
aprovechamiento de los grandes volúmenes de información que se recaban en las
instituciones de salud como resultado de la consulta, tratamiento y
hospitalización de pacientes para la atención de enfermedades y padecimientos,
bajo un esquema de análisis y disociación adecuado, constituye un material que
permita asegurar la mejora constante de los servicios de salud.
La incorporación
de una estrategia de Big Data para administrar los grandes volúmenes de datos
estructurados y no estructurados, combinado con la posibilidad de aplicar
algoritmos que permitan correlacionar datos provenientes de diferentes fuentes
para apoyar la investigación y desarrollo de respuestas que favorezcan un mayor
acceso a los servicios de salud, es una de las alternativas que las tecnologías
de la información ofrecen para fortalecer la investigación científica en
materia de salud.
Los avances en
la investigación científica relacionada con la salud y bienestar humano ofrecen
la posibilidad de contar con nuevos esquemas de tratamiento para atender
enfermedades y mitigar sus efectos, esta innovación se fundamenta en gran
medida por la capacidad tecnológica disponible para comprender la biología de
la enfermedad, que además permita el desarrollo de nuevos medicamentos,
diagnósticos y servicios preventivos de sanidad.
Esta visión
contrasta con los métodos tradicionales utilizados por las compañías farmacéuticas,
que pueden implicar plazos de hasta 10 años para desarrollar e introducir un
nuevo producto al mercado.
El esquema
considerado para disminuir el proceso de desarrollo e introducción de productos
incluye compartir esfuerzos mediante esquemas de alianzas con otras empresas
farmacéuticas o con las instituciones de salud administradas por los Estados,
para la consolidación de un sistema de sanidad más eficiente que permita
trasladar los resultados de la investigación científica en aplicaciones de salud,
resultado de compartir recursos y conocimientos entre los participantes.
En este contexto
se identifica que un recurso valioso para apoyar la investigación científica
está referido con la posibilidad de aprovechar la información que se recaba de
los pacientes atendidos en el sector salud como parte de una estrategia para
obtener conocimiento útil en la detección de enfermedades y su curación.
Las
características de la información de salud existentes en los sistemas de
información y las condiciones en que se busca su aprovechamiento posicionan a
Big Data como una estrategia tecnológica adecuada para los fines de
investigación científica, pues satisface las condiciones de las cinco V:
- Volumen. Sin duda los datos de salud son un buen ejemplo de cantidad incremental de información, tanto estructurada como no estructurada, y que además se produce por la intervención humana y por el uso de diferentes dispositivos que la recolectan.
- Velocidad. Como se ha expuesto, el aprovechamiento de la información contenida en los sistemas de salud es una alternativa para disminuir el tiempo dedicado a la investigación y desarrollo de nuevos productos que mitiguen o alivien las enfermedades.
- Variedad. La información de salud tiene además la particularidad de recabarse en diferentes procesos y formatos.
- Verificación. Por el impacto potencial que representa a la salud general esta cualidad es crítica en su aplicación para fines científicos de sanidad.
- Valor. El resultado esperado de la aplicación de una estrategia de Big Data es la contribución general al bienestar poblacional en materia de salud.
Si bien las
consideraciones anteriores abonan en favor de la aplicación del Big Data, no
debe omitirse que la titularidad de los datos contenidos en los sistemas de
información de salud pertenece a los pacientes y está sujeta a los principios
reconocidos para su tratamiento, incluyendo la condición de excepción de su
aprovechamiento por el Estado aduciendo situaciones de salud general y el
tratamiento para fines científicos, considerando la aplicación de un proceso de
disociación.
Esta necesidad
de aprovechar la información en posesión de los Estados para fines científicos
de salud, puede confluir en conflicto de interés entre la protección del
derecho del titular de los datos personales, y el establecimiento de esfuerzos
de colaboración con las empresas farmacéuticas para la aplicación del
conocimiento científico en la investigación del que se derivarán nuevos
productos médicos, cuyo beneficio económico directo recaerá en ellas.
Un segundo
riesgo entre privacidad y datos disociados para fines científicos se tiene
entre los datos sensibles que incluyen la información genética de los pacientes
y las investigaciones que se realizan en el genoma humano como parte de los
avances médico-biológicos, siendo que la consideración de la información
genética resulta necesaria para profundizar en el estudio de la biología humana
y sus enfermedades, considerando inclusive patrones hereditarios para el
desarrollo de tratamientos médicos específicos.
El
aprovechamiento colectivo que ofrece una estrategia de Big Data dirigida al
sector salud, no limita la consideración del beneficio individual,
principalmente en situaciones que hacen necesario que un paciente reciba un
trato personalizado, y pueda vincularse electrónicamente con otras fuentes de
información para recibir atención médica, realizando intercambio de información
con otros prestadores de servicios de salud.
Desde la
perspectiva del interés general, es importante salvaguardar el derecho de los titulares
a la protección de sus datos personales, para hacerlos accesibles a la
colectividad, bajo la tutela del Estado, que en ejercicio de sus obligaciones
de proteger los derechos individuales deberá tener la capacidad y habilidad de
administrar la información confiada en forma responsable, estableciendo los
mecanismos y políticas que aseguren la protección y aprovechamiento responsable
de la información contenida en los sistemas de salud, para la investigación
científica en el área de salud.
11.3 Big Data y entidades financieras
Sabido es que la
ingeniería aplicada para perfilamiento y conocimiento de clientes se utiliza en
el sector analizado desde hace mucho tiempo, incluso antes de considerarse
algún tipo de protección a los datos personales. Tampoco tenía ésta actividad
un nombre apetecible para una época tan tecnologizada como la actual, era
simplemente la labor de analistas de información de muy diversas fuentes para
el ofrecimiento de determinados productos para determinados clientes y una
pretensión de calificación de riesgo, considerando los antecedentes de
cumplimiento de las obligaciones económicas de las personas en general.
Otra condición
era que la información o datos que se analizaban se encontraban dispersos en
muy diversas fuentes, tanto privadas como públicas, y ciertamente ninguna de
ellas contaba con las autorizaciones que los titulares hoy, en términos
generales deben dar o conocer a quienes las manipulan, como es el caso de las
llamadas sociedades de información crediticia, entidades que refiriéndome al
caso mexicano que es muy representativo de los países en los que existe, tienen
por objeto fundamental el recopilar y manejar datos bancarios, financieros y
otros relativos al historial crediticio y otras operaciones de naturaleza análoga
de personas y empresas, mantenerlo y acrecerlo con aquellos datos que les
proveen sus propios participantes (bancos, operadores financieros, casas
comerciales y autoridades) así como información de operaciones crediticias
fraudulentas con objeto que los mismos sean entregados a los participantes y
usados por éstos para llevar a cabo distintas actividades, la mayoría vinculada
al explotación mediante el análisis del conocimiento de quienes ahí aparecen.
Al respecto del
tema, consideremos al Big Data como tendencia y consecuencia en el avance de la
tecnología, es la fórmula perfecta para el análisis de una gran cantidad de
información para su posterior explotación por aquellos que la realizan y contar
con una herramienta científica para la toma de decisiones. Dicho conocimiento
puede poner en jaque la privacidad, la honra, la reputación y por supuesto el
derecho a la protección de los datos personales, ya que todos tenemos
información y datos por evidente consecuencia del desarrollo, actas de
nacimiento, registros escolares, antecedentes laborales, historia social y por
supuesto bancaria y financiera.
El derecho a la
protección de datos personales viene garantizando un principio de calidad de
los datos y el ejercicio de derechos ARCO, que no es más que la garantía de que
la información inadecuada, incompleta o excesiva que se contenga en medios sea
eliminada o rectificada.
Precisamente en
el ejercicio de éste derecho radica una disposición creada dentro del sector y
circunscrita en las sociedades de información crediticia. En el caso mexicano,
como en otros como el español, transcurridos seis años en términos generales
aplicamos un “reseteo” de aquellos incumplimientos o desviaciones que se
hubieran realizado para el cumplimiento de obligaciones y en consecuencia,
aquellos análisis que se realicen contendrán una historia parcial de la
realidad en el cumplimiento y perfilamiento que se realice con el Big Data.
De lo anterior
surge la inquietud de que ocurre en países donde la legislación no contempla
estas figuras y se producen tratamientos relativos a solvencia patrimonial y
crédito mediante técnicas de Big Data, pudiendo aparecer información sobre
insolvencias crediticias o impagos con una antigüedad sin límite.
11.4 Big Data y la publicidad
comportamental
El GT29, a
través de su Dictamen 2/2010 sobre publicidad comportamental en línea, la
identifica como aquella actividad que “implica la identificación de los
usuarios que navegan por internet y la creación gradual de perfiles que después
sirven para enviarles publicidad que corresponde a sus intereses.”
Conforme a lo
anterior, para este Grupo de Trabajo los siguientes elementos son definitorios
de este tipo de publicidad son:
- Permite la identificación de “usuarios” (personas físicas, titulares de datos personales).
- La identificación de éstos se efectúa a partir de su navegación por internet.
- Esta identificación permite, a su vez, la creación gradual de perfiles (profiling).
- La creación de estos perfiles tiene por objeto el envío de publicidad que correspondería “a los intereses” de los usuarios.
Claramente, nos
encontramos frente a una actividad especializada que hace uso de Big Data; sin
embargo, cabría analizar si, dentro de esta definición, el interés de los
usuarios por recibir este tipo de publicidad constituye en sí mismo un elemento
que la defina o si, por el contrario y como puede también deducirse, “el
interés” radica en aquellos que generan publicidad comportamental.
Esta observación
no pasa inadvertida para el GT29, que “no cuestiona los beneficios económicos
que la publicidad comportamental pueda aportar a los que la practican” a la vez
que establece claramente que esta práctica “no debe realizarse a expensas de
los derechos a la intimidad y a la protección de datos de las personas”.
Consideramos que la misma posición debe ser adoptada por las diferentes
autoridades nacionales y difundida entre responsables y titulares.
Por otro lado,
es necesario tomar en cuenta que el uso de medios electrónicos para la
definición de perfiles (tecnologías de rastreo) como elemento esencial de este
tipo de publicidad, se ha convertido en un elemento diferenciador entre las
diversas legislaciones que regulan su uso.
Existen aquellas
que requieren que el uso de dichas tecnologías sea informado a los usuarios y
que éstos puedan aceptarlas de forma previa a su instalación en sus propios
equipos, con opción a su rechazo; otras requieren de información previa y
obligatoria para los usuarios, que les permita rechazar (a posteriori) la
instalación de este tipo de tecnologías. Otras simplemente exigen que se
proporcione información a los usuarios, sin que necesariamente deba ser previa
o accesible antes de su instalación.
En todo caso, es
necesario establecer qué legislaciones cuentan con las disposiciones necesarias
para salvaguardar los derechos de los titulares de datos personales que pueden
ser objeto de publicidad comportamental, así como su expectativa razonable de
privacidad.
Identificamos
como esencial el cumplimiento del principio de información, que en relación con
las finalidades de mercadotecnia, publicidad y prospección comercial, deben
encontrarse expresamente recogidos en los Aviso de Privacidad, de forma que
aquellos responsables que traten datos personales para dichas finalidades,
deban comunicarlo expresamente a los afectados, dando opción a su negativa
cuando esta finalidad no resulta necesaria para la relación jurídica existente
entre ambas partes.
El uso de
tecnologías de rastreo también está expresamente regulado por algunas normativa
nacionales. En este sentido, es necesario recordar que bajo la rubrica
“Política de cookies, web beacons u otras tecnologías similares”, las
normativas nacionales aludidas disponen (de manera análoga a la mexicana) que
cuando el responsable utilice mecanismos en medios remotos o locales de
comunicación electrónica, óptica u otra tecnología, que le permitan recabar
datos personales de manera automática y simultánea al tiempo que el titular
hace contacto con los mismos, en ese momento deberá informar al titular, a
través de una comunicación o advertencia colocada en un lugar visible, sobre el
uso de esas tecnologías y sobre el hecho de que a través de las mismas se
obtienen datos personales, así como la forma en que se podrán deshabilitar,
esto último salvo que dichas tecnologías sean necesarias por motivos técnicos.
Por lo anterior,
en el contexto de Big Data y la publicidad comportamental, se hace necesario
emprender acciones de formación y concienciación sobre el uso de las
tecnologías de rastreo que la normativa vigente ya regula, pero que su propia
novedad parece alejar de su cumplimiento integral.
En esencia, se
considera que la especialidad de actividades de Big Data (como la publicidad
comportamental) debe dar lugar a su identificación, estudio y definición de
actividades de cumplimiento, para que cada una de ellas se desarrolle con
respeto de los derechos fundamentales de las personas, en relación con el
tratamiento de sus datos personales y de su privacidad.
11.5 Big Data y Educación
Hoy en día
existe una cantidad ingesta de información que está chocando en nuestra
sociedad y que en la mayoría de las ocasiones es imposible o insostenible de
tratar o analizar con herramientas de base de datos. Consolidando un entorno
donde es común la proliferación de webs, apps de imagen y sonido, redes
sociales, dispositivos móviles, sensores,….
Por lo que,
debemos de ser conscientes de la realidad en la cual vivimos e irnos adaptando
a ella. Para ello, es bueno conocer y comprender las tendencias actuales y
futuras, sobre modelos basados en Big Data. De esta forma se ayudará a que las
instituciones educativas puedan adaptarse e identificar a estudiantes en
riesgo, de forma que puedan intervenir con el fin de reducir la deserción y
aumentar las tasas de graduación de los alumnos/as.
Este tipo de
medidas dentro del ámbito académico, se pueden abarcar desde dos perspectivas:
una centrada en la propia institución, y otra en el aprendizaje. Siendo mucho
más efectiva la primera, ya que propone modelos educativos centrados en Big
Data que optimizan la deserción en el ámbito educativo (centro e
instituciones), así como también realiza un seguimiento más exhaustivo de los
alumnos/as.
Una forma de
logarlo, es mediante el análisis y comprensión de la información disponible en
la web, como son: redes sociales, sistemas educativos, webs institucionales,…
Esta innovación
educativa está en auge actualmente, gracias a los conocidos cursos MOOCs
(Massive Online Open Courses), que ofrecen cursos de formación abiertos,
masivos y gratuitos. Nacieron en el año 2008, y tenían como iniciativa el
acercamiento de conocimiento de nivel superior a todos los internautas, sin
tener que ser estudiantes de universidad. Es una formación globalizada e
internacional, que busca un público más amplio, con el objetivo de liberar
conocimiento. Cuenta con un sistema de evaluación propio, que valorar a cada
uno de los estudiantes en función de los conocimientos adquiridos.
Además, este
tipo de enseñanza no sólo ayuda en la lucha de la brecha digital; sino que
también proporciona una serie masiva de información (Big Data) muy importante
para la mejora de la enseñanza en todos los niveles educativos: social,
cognitivo y emocional, a nivel individual, grupal e institucional. Al mismo
tiempo que, facilita y mejora el apoyo que se ofrece en tiempo real a cada uno
de los alumnos/as de estos cursos.
Toda esa
información recogida, tiene un gran valor educativo para las instituciones, ya
que ayudará a mejorar el diseño curricular de muchas de las materias
adaptándose, aún si cabe, a las necesidades reales de los alumnos/as. De esta
forma se podrán solucionar algunas de las necesidades que se requieren en las
universidades, como son: módulos más adaptados, módulos actualizados, platear
tareas, recoger el feedback y diseñar una formación más relevante que
constituya un aprendizaje más efectivo y mejore la enseñanza.
Por último y sin
menor relevancia, un punto a considerar dentro de esta problemática, son los
aspectos éticos, morales y legales de dicho uso de la información. Un elemento
crucial en la privacidad de datos. Las herramientas analizadas a lo largo de la
presente Declaración (como la evaluación de impacto) se manifiestan
imprescindibles a la hora de realizar este tipo de tratamientos, sobre todo si
son de menores.
12. EL CONCEPTO DE PORTABILIDAD DE
LOS DATOS E INTEROPERABILIDAD
En una época en
donde la migración de servicios hacia soluciones de Cloud Computing y
aplicaciones es cada vez más común, la protección de datos se vuelve
fundamental, pero también la posibilidad de estandarizar los procesos de
portabilidad de los datos de usuarios asociados a diversos servicios de Cloud
Computing.
Se debe
implementar una política de portabilidad e interoperabilidad como política de
contratación. La portabilidad de datos representa el mayor riesgo operativo
para los usuarios del Cloud Computing, ya que ante la ausencia de regulación
que establezca los formatos, parámetros, términos y condiciones bajo los cuales
un proveedor de Cloud Computing portará los datos a otro en caso de terminación
del contrato del primero, como si ha ocurrido en el caso de los servicios
telefónicos, la posibilidad de hacer efectivo éste derecho radica en la
inclusión de una cláusula contractual que precisamente se encargue de lidiar
con éste tema.
Desafortunamente
para el crecimiento de la industria de servicios de Cloud Computing, la
obligación de permitir la portabilidad del dato es una cláusula que el cliente
o usuario debe buscar incluir en el contrato, y es que no solamente se trata de
hacer que el proveedor del servicio entregue un soporte magnético u óptico que
contenga la información del usuario, sino que además el cliente debe buscar
garantía de que esos datos entregados puedan ser leídos y procesados por su
nuevo proveedor y que la información en poder del proveedor primigenio sea
destruida dentro del plazo legal aplicable. Dicho proceso debe ser verificable,
en el entendido que no debe existir ninguna información adicional o derivada de
la información original que pueda ser utilizada o considerada propia por el
proveedor.
Es importante
hacer notar que la creciente configuración de nubes pone en peligro el
principio de neutralidad de la Red, ya que el hecho de que un cliente o usuario
de servicios en nube no pueda portar sus datos entre uno u otro proveedor, pone
en entredicho la libertad de contratación, el derecho protección y uso de sus
datos, razón por la cual diversos expertos ya han comenzado a elaborar el
concepto denominado cloud neutrality, estableciendo la necesidad de establecer
la portabilidad de los datos como un derecho legalmente previsto en los
contratos en cuestión, y aceptado por el proveedor, mismo que deberá sujetarse
a reglas básicas que permitan portar los datos y supervisar la debida
realización de los mismos.
Por lo anterior,
es muy importante establecer que en la actualidad dentro de las diversas
opciones que ofrecen los proveedores de Cloud Computing se pueden encontrar
soluciones abiertas a la portabilidad de datos y soluciones sin portabilidad.
Aunque como se
ha señalado anteriormente, la idea es que se generen en un futuro parámetros
internacionales que permitan a los usuarios de soluciones de Cloud Computing
requerir y exigir a los proveedores de las mismas reglas que de portabilidad de
datos sin restricciones, actualmente los usuarios deben buscar solución abierta
a la portabilidad, en el entendido que las mismas permiten con mayor facilidad
transferir todos sus datos y aplicaciones del usuario desde un proveedor de
Cloud Computing a otro (o a los sistemas propiedad del cliente), garantizando
la disponibilidad de los datos y la continuidad del servicio.
Es vital tener
en cuenta que los contratos de Cloud Computing pueden terminarse no sólo en el
caso de rescisión de contrato por parte del cliente, sino por otras
circunstancias ajenas al mismo, como podría ser el fin de la prestación de
algún tipo de servicio por parte del proveedor, el cambio de su política
comercial o cambios en el marco regulatorio existente, razón por la cual, el
usuario debe tener en cuenta que tipo de contrato tiene firmado, ya que entre
más restringido esté el derecho de portar sus datos, mayor será la dificultad
de transferir sus datos.
Es fundamental
que los usuarios de soluciones de Cloud Computing celebren acuerdos con
proveedor reconocidos por su calidad en el servicio y que reconozcan los
derechos de portación de los datos y apliquen la legislación local de
protección de datos. El usuario de soluciones de Cloud Computing debe tener la
opción de exigir a su proveedor la portabilidad de la información a sus propios
sistemas de información o a un nuevo prestador de Cloud Computing, lo anterior,
siempre de acuerdo con las condiciones y términos acordados para tal efecto.
La portabilidad
de datos debe también generarse y adecuarse para resolver los casos de
transferencias internacionales, que podrían generar afectaciones de derechos y
conflictos entre legislaciones, en el entendido, que dicha situación pudiera
lugar a transferencias de datos a proveedores situados en jurisdicciones con
menos medidas de protección y protección a los datos personales de los usuarios
y requerir, en su caso, autorización previa de la Autoridad de Control.
El debido
establecimiento de los procedimientos de portabilidad de datos, y la
subsecuente entrega de información a un nuevo proveedor hará más sencillo el
proceso de migración de bases de datos, sin afectar, dañar o impedir dicha
migración, resguardando la integridad de los datos. El proveedor debe
garantizar por escrito dicha obligación de portar de manera adecuada e integra la
información y detallar los procedimientos aplicables. No obstante lo anterior,
la determinación de normas y parámetros técnicos aplicables respecto a la
migración y recepción de bases de datos entre proveedores de soluciones de
Cloud Computing son necesarias para generar interoperabilidad entre los mismos
y sus sistemas para asegurar la portabilidad de datos de los usuarios.
Las Partes deben
establecer procedimientos, con la finalidad de que una vez concluida la
portabilidad, el proveedor anterior garantice al usuario el borrado seguro de
los datos entregados bajo el contrato anterior. Dichos procesos de borrado
seguro pueden ser realizados y/o validados por terceros designados previamente
en el contrato.
La
interoperabilidad debe en todo momento aligerar la carga del cumplimiento de
las funciones básicas de las soluciones de Cloud Computing, al asignar el
quién, qué y dónde para mantener organizados los datos no estructurados. Estas
tareas deben ser ejecutadas sobre servidores que formen parte de las soluciones
de Cloud Computing como una tarea en segundo plano, virtualmente invisible para
los usuarios, manejando archivos sin interrumpir el flujo de trabajo.
La
interoperabilidad de redes debe permitir a los proveedores desarrollar una
interacción segura y fluida entre centros de datos de la nube y crear centros
de datos mucho más sencillos con una infraestructura más ágil que mejores los
procesos de gestión.
Por lo anterior,
la interoperabilidad debe ayudar a alcanzar la eficiencia global del Cloud Computing
mediante las mejores prácticas de la infraestructura. Para facilitar lo
descrito, los proveedores debe proporcionar y estandarizar las mejores
prácticas, modelos de uso, diseños de referencia y sólidas herramientas para
planificar e implantar estrategias de la nube garantizando la interoperabilidad
de las redes y soluciones utilizadas. La creación de estándares para soluciones
de interoperabilidad en Cloud Computing debe incluir elementos relacionados con
las redes definidas por el software, innovaciones en almacenamiento y avances
en arquitectura de redes utilizadas.
Para finalizar, deben
tenerse en cuenta algunas de las responsabilidades que los proveedores de
servicio deberían asumir:
12.1. Responsabilidad por daños por
Interrupción en el Servicio
Independientemente
de establecer los parámetros mínimos de servicio, los proveedores deben
reconocer expresamente en los contratos que tienen soluciones para los niveles
de responsabilidad directa por las interrupciones que afecten a los
servicios. Es cierto que el cómputo en
la nube establece un problema práctico para determinar la responsabilidad de
los proveedores de servicios por fallas en los mismos, ya que el cómputo en la
nube consiste en la mezcla de recursos e infraestructuras para poder brindar a
los usuarios movilidad, disponibilidad y funcionalidad; por tanto es importante
que los proveedores de Cloud Computing determinen y delimiten las partes de su
red e infraestructura en las cuales aceptan control y responsabilidad ante el
usuario por fallas en los servicios prestados. Determinado lo anterior, es muy
importante establecer no solamente procesos de falla, sino procesos de
aceptación de responsabilidad y las penalidades aplicables por dichas fallas.
12.2. Acuerdos
de Nivel de Servicio
Anteriormente
hemos hablado de la importancia de un acuerdo de niveles de servicio o SLA
(Service Level Agreement) por lo que en este punto vale la pena recordar que el
Contrato de Cloud Computing debe contener un anexo que detalle de manera
eficiente los parámetros, niveles y términos de servicios que permitan la
funcionalidad de acuerdo con lo requerido por el cliente, dentro de dicho
Acuerdo de Niveles de Servicio se deben incluir por lo menos los siguientes
elementos:
- Disponibilidad Mínima de los Servicios e Infraestructura.
- Tabla de penalidades por incumplimiento en la disponibilidad.
- Detalle de los parámetros técnicos a medir durante la prestación de los servicios.
- Tipos y periodicidad para la entrega de reportes.
- Tiempos máximos para reparación de fallas.
- Procesos de escalamiento.
- Detalle sobre los procesos de seguridad aplicables.
- Detalle de Monitoreo.
Es muy
importante señalar que una de las obligaciones claves del cómputo en la nube es
la funcionalidad de servicios en tiempo real y la garantía de protección y
resguardo eficiente de la información, transmitida, intercambiada y/o
almacenada a través de recursos de cómputo en la nube.
No basta agregar
niveles de servicios, ya que si estos no garantizan la disponibilidad y
funcionalidad de los mismos, no puede garantizarse que los servicios de cómputo
en la nueve sean prestados de forma eficiente ni que otorguen las ventajas
ofrecidas al usuario de manera efectiva.
- Responsabilidad de Garantizar la disponibilidad del Dato.- Es indispensable que los proveedores de Cloud Computing garanticen la disponibilidad y seguridad del dato almacenado, transmitido e intercambiado, ya que más allá de la forma en que pueda funcionar o estar conformada la infraestructura utilizada o el servicio prestado, la capacidad del usuario de recuperar, modificar o eliminar su información en tiempo real no puede ser limitada. La capacidad para utilizar los datos almacenados, en tiempo real y en cualquier dispositivo, debe ser la premisa del prestador de servicios de cómputo en la nube. Adicionalmente a lo antes referido, la responsabilidad por afectar la disponibilidad en el acceso a los datos de usuario, debe ser una responsabilidad que el proveedor reconozca en los contratos en cuestión.
- Localización del Dato.- Este punto en particular puede generar muchas confusiones y discusiones entre los especialistas, ya que si bien es cierto, la posibilidad de resguardar un solo dato o bases de datos en diferentes lugares de forma simultanea es una de las características principales del cómputo en la nube, los proveedores defienden la idea de mantener en secreto los diversos lugares en donde se guarda la información, siempre por cuestiones de seguridad y protección del usuario y el proveedor. Uno de los problemas que puede generar la ubiquidad de los datos es sin duda la determinación de la jurisdicción aplicable para el caso de un conflicto entre las partes o que se provoque una transferencia internacional de datos.
Si bien es
cierto que el secreto de los datos es importante por temas de seguridad, también
lo es que debe existir compromiso expreso del proveedor de señalar al usuario
el lugar físico principal en donde se guardará la información, además de borrar
y hacer constar la eliminación de datos de cualquier registro y lugar del
proveedor al finalizar el contrato.
Por lo
anteriormente expuesto entendemos,
Que siendo los
datos personales la moneda de oro de la economía digital y el motor de la
economía del siglo XXI. Los datos son el negocio de los negocios.
Que como quiera
que los datos personales son un activo y generan valor para las organizaciones
y el Estado, no cesarán los esfuerzos para, de una parte, flexibilizar su uso,
especialmente frente a regulaciones que siguen, en buena medida, el modelo
europeo sobre tratamiento de datos personales, y de otra parte, exigir el
debido tratamiento de esa información para evitar la eventual vulneración de
los derechos de las personas cuando su información es tratada indebidamente.
Que los
beneficios o maleficios del Big Data dependerán del uso ético y responsable que
haga quien posee enormes cantidades de datos sobre diversos aspectos de
millones de personas alrededor del mundo.
Que debido a que
con la tecnología se puede hacer casi todo. La pregunta que surge es la
siguiente: ¿todo lo tecnológicamente posible, es social y humanamente deseable?
Que ante el
desarrollo de estas tecnologías que indudablemente tienen consecuencias
altamente positivas para la humanidad, con grandes posibilidades en sectores
como la sanidad, los diferentes Estados, las entidades y las empresas se deben
implicar para que el uso de estas tecnologías no se utilicen con fines
invasivos de la privacidad de las personas.
Que corresponde
a los Estados adaptar las legislaciones y unificarlas, desarrollando nuevas
herramientas que mejoren la privacidad de los individuos cuando se usan estos
sistemas, y corresponde alas empresas y entidades implementarlos.
Que estos
sistemas, herramientas y garantías deben ir encaminados a los principios de
transparencia, objeción al tratamiento, inocuidad para el afectado, calidad de
los datos, minimización de los mismos y responsabilidad en lo que respecta a
las relaciones con los individuos, debiendo obligar las diferentes
legislaciones a la implantación de medidas de índole técnica y organizativa que
prevean la evaluación de impacto en privacidad, el Privacy by Design, la
adopción de medidas de seguridad, la anonimización de los datos, el ejercicio
de derechos de acceso, rectificación, cancelación y oposición y la
disponibilidad, integridad y confidencialidad de la información.
Que hay que
preguntarse en qué clase de sociedad queremos vivir, qué tipo de información
estamos dispuestos a que se recabe diariamente sobre lo que hacemos, donde
vamos, sobre cómo nos comportamos y durante cuánto tiempo ha de ser analizada y
accesible.
Que la
tecnología y la información no son por sí solas el problema. Todo radica en su
uso. Si se puede hacer algo con la información, alguien lo va a hacer (o lo
está haciendo): Hacia dónde vamos a seguir y a dónde vamos a parar?
Que es
bienvenida la innovación y es bienvenido el Big Data, pero también bienvenida
la reflexión crítica sobre los riesgos del big data. No podemos ser
espectadores ingenuos y ciegamente maravillados por lo que nos dicen sobre el
Big Data. Como todo en la vida, no es positiva
la “tecnofobia” ni la “tecnofascinación” pero si la tecnoreflexión y
sobre todo la ética.
13. DERECHOS DE AUTOR
La obra original está amparada bajo una
licencia Creative -commons con Reconocimiento-NoComercial-SinObraDerivada 3.0
Unported (CC BY-NC-ND 3.0)
El propietario de los derechos permite copiar,
distribuir y comunicar públicamente la obra, siempre que se reconozcan los
créditos de la obra de la manera especificada por el autor o el licenciador
(pero no de una manera que sugiera que tiene su apoyo o apoyan el uso que hace
de su obra).
No se puede utilizar esta obra para fines
comerciales. Tampoco se puede alterar, transformar o generar una obra derivada
a partir de esta obra.
Sobre
el autor:
La Declaración de México D.F., hacia la implantación de garantías para la privacidad en los tratamientos
de Big Data, elaborada desde la iniciativa del Observatorio
Iberoamericano de Protección de Datos, fue presentada el sábado 23 de
agosto de 2014 por Dulcermaría Martínez
Ruíz, en el transcurso de la Jornada académica de protección de datos
personales en internet, dentro de la bienvenida para los alumnos de la cuarta
generación de la Maestría en Derecho de las Tecnologías de la Información y
Comunicación de INFOTEC, en la ciudad de México Distrito Federal.
NOTA
DEL EDITOR: La presente declaración, en formato original, puede
consultarse en la Web del Observatorio
Iberoamericano de Protección de Datos: Declaración de México
D.F.
Twittear
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.