Es esta última noción la que acogió el legislador con la expedición de la Ley estatutaria 1581 de 2012, por la cual el titular tiene derecho a conocer, actualizar y rectificar sus datos personales, solicitar o revocar la prueba de la autorización otorgada, ser informado respecto del uso que se les dará y presentar ante la Superintendencia de Industria y Comercio quejas por las infracciones que se comentan.
Sin embargo, pese a que el derecho de habeas data se desprende del artículo 15 de la Constitución Política relacionado con el derecho a la intimidad, el núcleo esencial involucra otros derechos fundamentales como el derecho a la información, al buen nombre, a la no discriminación, al debido proceso y, más recientemente, a la autonomía privada y el libre desarrollo de la personalidad.
Por su parte, la reciente expedición del Reglamento General de Protección de Datos Europeo de 2016 trajo a colación la responsabilidad algorítmica cuando se da el tratamiento de datos personales. La elaboración de perfiles individualizados y la trasformación de la gobernanza de la información con ocasión de la IA tiene el potencial de aumentar la efectividad de los “pequeños empujones” y afectar la autonomía personal en la toma de decisiones (Kaminski y Malgieri, 2019). Así las cosas, como manifestación de la autonomía personal, los citados autores sugieren que los agentes deberían tener derecho a obtener una explicación de los motivos de las decisiones automatizadas, a acceder a una auditoria algorítmica y a impugnar las decisiones automatizadas con consecuencias jurídicas significativas.
En un sentido similar, la Red Iberoamericana de Protección de Datos (2019) realizó recomendaciones en relación con el vínculo entre la ética y la protección de datos en el tratamiento automatizado realizado por sistemas basados en IA. No hay que olvidar que los datos personales tienen un contexto regulatorio bastante estricto y que, sin importar la forma de recolección, se deben respetar los intereses del titular de los datos. En otras palabras, las actividades resultantes como consecuencia del tratamiento deben respetar los derechos humanos y las garantías mínimas establecidas por las normativas locales.
Si bien las recomendaciones resaltan la importancia de respetar la libertad de expresión y de información, aún no enfatizan el respeto de la agencia humana, como sí lo hace el High-Level Expert Group on AI (2019: 16) de la Unión Europea, al indicar que para que una IA sea fiable debe respetar la agencia y supervisión humanas, garantizar la gestión de los datos personales, respetar la equidad e implementar mecanismos de auditabilidad que minimicen los efectos negativos. Así mismo, la European Commission (2020: 10) publicó un White Paper para permitir el desarrollo confiable y seguro de IA en Europa, en el que se describe la importancia de la agencia humana y la supervisión como uno de los principios ya establecidos.
Lo expuesto en Europa ha influido en el Banco Interamericano de Desarrollo (BID), el cual, mediante un informe de la iniciativa “fAIr Lac”, señaló la importancia de establecer estándares éticos para la IA mediante políticas públicas. En tal sentido, el BID propone hacer frente al problema de los datos procesados por una máquina, los cuales pueden terminar en la creación de algoritmos injustos. Igualmente, es posible pensar en una redefinición de los límites a la privacidad a fin de delimitar la falta de claridad jurídica de las decisiones que toma el sistema (M. Cabrol, N. González Alarcón, C. Pombo, Sánchez Ávalos, 2020).
Desde el punto de vista de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), la tecnología debe tener valores centrados en el ser humano y la equidad. Si se comprende el funcionamiento del algoritmo y se es consciente de sus interacciones, la predicción, recomendación o decisión será más clara y fácil de entender. En todo caso, deben prevalecer el derecho, los derechos humanos y los valores democráticos, exaltados a través de la libertad, la dignidad, la autonomía, la privacidad, la protección de datos, la no discriminación, la igualdad, la diversidad, la equidad, la justicia social y los derechos laborales (M. Cabrol, N. González Alarcón, C. Pombo, Sánchez Ávalos, 2020: 14).
C. LA NECESIDAD DE REDEFINIR EL NÚCLEO ESENCIAL DEL DERECHO AL HABEAS DATA
El procesamiento automatizado de datos personales por sistemas de IA suscita profundos retos legales y éticos respecto de la autonomía y la agencia humanas, en el sentido de que, con la suficiente información disponible, y la alta capacidad de aprendizaje adquirida por la tecnología, los gobiernos o las empresas privadas podrían eventualmente interferir en la autonomía y el libre desarrollo de la personalidad de los seres humanos.
De acuerdo con Daniel Solove (2008: 1101), se pueden identificar diferentes concepciones de privacidad: en primer lugar, la forma más antigua de privacidad se remonta al derecho a ser dejado en paz, en el entendido de que los individuos tenemos el derecho a no sufrir intrusiones o invasiones en nuestra vida privada, salvo que se trate excepciones que emanen del hecho de vivir en comunidad; en segundo lugar, la privacidad puede ser considerada como “el deseo individual de ocultamiento y por estar separado de los demás” (p. 1102), en donde hay una idea de aislamiento y separación de la sociedad; en tercer lugar, el secreto y la reserva de cierta información también pueden ser considerados como privacidad, toda vez que representan la independencia del ser y el ejercicio de otros derechos subjetivos (p. 1106); en cuarto lugar, una de las nociones que mayor desarrollo ha alcanzado es considerar la privacidad como el control de la información personal, entendida como la posibilidad de autorizar o restringir su circulación (p. 1110); en quinto lugar, y debido al reconocimiento de los atributos del individuo, también se habla de la privacidad como persona, como un concepto unificado y coherente que protege contra la conducta que es “degradante a la individualidad” (p. 1116), y en sexto lugar, existe una teoría que considera la privacidad como una forma de intimidad, de tal suerte que involucra el desarrollo de las relaciones personales y el control sobre ellas (p. 1121).
En un sentido similar, la doctrina explica que la Corte Suprema de Justicia de los Estados Unidos “[…] ha adoptado una teoría de la privacidad de la persona en sus decisiones sustantivas sobre el debido proceso” (Solove, 2008: 1117). En otras palabras, la privacidad implica asumir decisiones personales e íntimas que son propias del ejercicio de la dignidad personal y la autonomía (Waldman, 2018).
El profesor E. Bloustein (2010: 187) señala que “[u]na intrusión en nuestra privacidad amenaza nuestra libertad como individuos para hacer lo que queramos”. De manera que para mantener el ejercicio de esa dimensión de privacidad la doctrina recomienda una nueva arquitectura de recopilación de datos basada en principios, con el fin de que los titulares tengan una real participación en el uso de su información personal (Waldman, 2018).
Resulta interesante el interrogante que presenta Roger Brownsword (2017: 2): ¿cómo debe el derecho enfrentar las aplicaciones particulares de las nuevas tecnologías que tienen un efecto negativo en la libertad de las personas? Y al respecto señala que “… el derecho es sustituido en cierta medida por la gestión tecnológica y en realidad la prueba de las libertades que tenemos no está tanto en la codificación jurídica”. Dicho de otra forma, las circunstancias que rodean a la