• Inicio
  • Blog
  • Sobre la personificación jurídica de la inteligencia artificial (I)

Sobre la personificación jurídica de la inteligencia artificial (I)

24 abril 2020

IA y code is law


En el año 1989 Lawrence Lessig, un profesor de derecho constitucional de la Universidad de Stanford, publicó un libro muy influyente con el título “Código y otras leyes del ciberespacio”. Aunque no fue invención de su autor, a esta obra se debe la popularización del célebre y también malinterpretado lema “code is law”. Y digo malinterpretado porque muchos lo citan como si se tratase de una afirmación en el plano deóntico o del deber ser; como si en el ámbito del ciberespacio, en el medio digital, el código, en el sentido de software o programa informático, debiera ser la última palabra, el último e indiscutible criterio de lo que es correcto o incorrecto. Así, si el programa que rige un smart contract determina un cierto resultado –una concreta actualización de una base de datos-, no hay más que decir, porque lo que resulta de la ejecución automática del programa es lo que debe ser.
Sin embargo, en la visión de Lessig, code is law no significa exactamente eso: no afirma algo en el plano del deber ser sino en el plano del ser, en el terreno fáctico o de la práctica. Cuando decimos que el código es la ley, no queremos decir que lo que resulta de la ejecución del programa nos haya de parecer siempre correcto en un plano valorativo, de la justicia o de la ley, sino que, de facto, el software y también el hardware que hemos desarrollado son lo que determina lo que en la práctica es posible o no hacer. Se pueden dictar todas las leyes y las sentencias que uno quiera, pero si los sistemas, redes y programas informáticos que empleamos no están técnicamente diseñados para ser compatibles con los criterios que inspiran esas leyes o sentencias, difícilmente se podrán hacer realidad esos criterios. Code is law significa que la “naturaleza de las cosas” –en este caso, la naturaleza de las cosas artificiales que ha creado la tecnología- es lo que en la práctica manda. Por eso en materia de protección de datos personales se habla ahora de “privacidad por diseño”, porque sólo desde el diseño técnico de los sistemas de captación y registro de datos se puede garantizar el respeto de ciertos objetivos o valores de política jurídica. O -por poner sólo otro ejemplo- por mucho que el artículo 1911 de nuestro Código civil afirme la responsabilidad patrimonial universal de todo deudor, activos de indudable valor económico como los bitcoins y otras criptomonedas similares son, en la práctica y por razones estrictamente técnicas, inembargables. Esto es así porque, de facto, el control y disponibilidad de una concreta suma de criptomonedas depende del conocimiento de una clave criptográfica privada, cuya aplicación es imprescindible para generar una nueva transacción de esa concreta suma que sea registrable en la blockchain correspondiente. Y como el titular de los criptoactivos en cuestión siempre puede decir que ha olvidado o perdido su clave, sin contar con su voluntad nunca se le podrá privar de ellos ni limitar su disponibilidad, digan lo que digan al respecto todas las leyes de nuestro ordenamiento. Por diseño, por el “código” que rige su generación y tráfico, los bitcoins resultan en la práctica incoercibles.
Siendo así, son dos las ideas básicas que debemos extraer del lema code is law. Primero, que es inadecuada cualquier aproximación de los juristas con pretensiones regulatorias a las nuevas realidades sociales generadas por los avances tecnológicos que no vaya precedida de un conocimiento suficiente de la tecnología implicada en el ámbito en cuestión. Y segundo, que, así como la naturaleza de las cosas del mundo natural es para nosotros algo que nos viene dado y que difícilmente podemos modificar –por ejemplo, la ley de la gravedad-, la naturaleza de las cosas artificiales es algo que sí depende de nosotros, porque las hemos creado los seres humanos y somos por ello responsables de su diseño. De esta manera –y este es el mensaje último de Lessig-, code is law significa que tenemos la responsabilidad de diseñar nuestro mundo tecnológico de manera que sea compatible con los valores humanos básicos que inspiran nuestros ordenamientos constitucionales.
Y estas mismas dos ideas deberían ser tenidas en cuenta a la hora de aproximarnos desde una perspectiva jurídica al verdadero tema y reto de nuestro tiempo: las implicaciones sociales de todo tipo que trae consigo el desarrollo y la proliferación de dispositivos, programas y aplicaciones de inteligencia artificial.

La personificación jurídica como posible respuesta al problema de la responsabilidad


En relación con esta cuestión, que presenta una infinidad de facetas, algunos de los juristas que tímidamente empiezan a introducirse en el asunto han centrado su atención en el tema de la responsabilidad: ¿quién responde jurídicamente de los daños causados por un mal funcionamiento del vehículo autónomo, del robot cirujano o del dron policía? Y como una posible respuesta a la dificultad del problema, algunos están hablando de la posibilidad de personificar jurídicamente al propio robot. Así, el Parlamento Europeo en una Resolución de 16 de febrero de 2017 con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica, en su apartado 59, pide a la Comisión que, cuando realice una evaluación de impacto de su futuro instrumento legislativo sobre la materia, «explore, analice y considere las implicaciones de todas las posibles soluciones jurídicas, tales como: … f) crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente».
La mera enunciación de semejante idea no deja de suscitar inquietud y hasta desasosiego. ¡Robots personificados, tratados como sujetos de derechos y obligaciones! Esto es algo más, bastante más, de lo que imaginó Asimov. En la medida en que la personalidad jurídica es considerada como un atributo esencial de la condición humana, la extensión de este atributo a unas máquinas es algo que parece hacer de menos a los seres humanos y que nos conduce a una pesadilla distópica transhumanista o posthumanista en la que no sólo la hegemonía sino hasta la supervivencia de nuestra especie empiezan a estar en cuestión.

La personificación jurídica de la IA como forma de protección del ser humano amenazado


Es innegable que la posibilidad de emular artificialmente el funcionamiento de una mente humana suscita interrogantes e inquietudes de hondo calado ético, filosófico, religioso y por supuesto político. Como asimismo los suscitan las pretensiones de “mejoramiento” humano no sólo mediante ingeniería genética sino también mediante esa fusión entre biología y tecnología que resulta de la incorporación a nuestro cuerpo de dispositivos tecnológicos que permitan expandir nuestras capacidades intelectuales naturales (conexión cerebral directa a internet, implantación de bases de memoria, de herramientas de computación…). Sin embargo, de momento, cuando se habla de personificación de dispositivos o agentes artificiales dotados de IA, no se está pensando en transhumanismo, sino más bien en todo lo contrario: en cómo proteger más eficazmente al ser humano de los crecientes riesgos que genera la proliferación de la IA. Ante la dificultad de imputar las consecuencias desfavorables de una actuación “autónoma” al fabricante del dispositivo, al propietario o al usuario, surge la idea de imputar al propio dispositivo en la medida en que éste podría ser titular de su propio patrimonio afecto a responsabilidad por los posibles resultados dañinos de sus actuaciones. Así, la personificación jurídica del robot no es algo que pondría en cuestión la dignidad humana, sino más bien una específica técnica jurídica de protección de los seres humanos ante las amenazas prácticas que trae consigo el desarrollo tecnológico.
En relación con ello, no está de más recordar que, aunque la personalidad jurídica sea considerada como un atributo esencial de la dignidad humana. La personificación jurídica es una técnica jurídica que se ha empleado durante siglos en relación con entidades distintas de los seres humanos individuales, de manera que hoy reconocemos subjetividad jurídica a una infinidad de sociedades, sin que nadie vea en ello un detrimento para la dignidad humana. Es verdad que no pocas veces se ha abusado y se sigue abusando de la personificación para fines inicuos, como instrumento para eludir las responsabilidades y ocultar las titularidades reales de bienes y actividades. Especialmente para facilitar la instrumentación y explotación de unos seres humanos por otros, pero, en último término, uno de los motivos fundamentales que justifican la existencia de personas jurídicas dotadas de su propio patrimonio afecto a responsabilidad por las consecuencias de sus actividades es el propósito de proteger a las terceras personas –al final, seres humanos individuales- con las que interactúan determinadas organizaciones. De lo que se trata con la personificación es de buscar un responsable, un patrimonio contra el que dirigirse, en determinadas relaciones en que podría ser difícil encontrar un patrimonio responsable.

Una personificación jurídica mediante la que se imputan “actos” no humanos


Ahora bien -volviendo a code is law y a la naturaleza de las cosas tecnológicas-, que una de las posibles respuestas jurídicas a los riesgos inherentes al desarrollo de la IA sea la personificación jurídica de los propios “agentes” artificiales dotados de este tipo de inteligencia es algo que nos obliga a atender a circunstancias de naturaleza puramente tecnológica, que los juristas no podemos desconocer.
La subjetivización de las personas morales o jurídicas es una técnica jurídica bastante sofisticada que hace surgir unas que podríamos llamar “máquinas jurídicas”, que pueden ser muy complejas pero que, en último término, están construidas sobre la base de unas cuantas reglas de imputación de actos humanos, de actos realizados por seres humanos naturales.
Si un determinado ser humano individual o un grupo de seres humanos individuales –por ejemplo, los integrantes del consejo de administración de la sociedad X- manifiestan una cierta voluntad siguiendo unas determinadas reglas procedimentales –convocatoria, quorum, mayoría de votos a favor, constancia en acta-, la decisión en cuestión y los actos que resultan de su ejecución se imputan jurídicamente y por tanto se hacen recaer sus consecuencias jurídicas –porque así lo dispone una norma jurídica de nuestro ordenamiento vigente- sobre una colectividad y un patrimonio que van más allá de las individualidades y los patrimonios de esas personas que participaron en la reunión. De manera que detrás de todo esto no hay más que reglas jurídicas y –por lo que ahora me interesa- acciones de seres humanos naturales. Pensemos lo que pensemos acerca del clásico debate sobre la ficción o la realidad de las personas jurídicas, y por mucho que atribuyamos una suerte de ser o espíritu místico sustancial a España, la Universidad de Comillas, Bankia o el Real Madrid, lo cierto es que este tipo de entidades sólo actúan por medio de personas naturales, que son las que al final integran todos sus “organos” –expresión esta, enlazada con la de “corpus”, que no es más que una metáfora tomada prestada de la biología-.
Sin embargo, cuando nos planteamos la personalización o subjetivización de dispositivos o agentes dotados de inteligencia artificial, lo que tenemos a la vista es algo muy diferente del fenómeno tradicional de las personas morales o jurídicas. No se trata de cómo imputar determinados actos humanos a un grupo o colectividad o a un patrimonio separado, sino de reconocer la trascendencia jurídica de un nuevo tipo de “actos”, de reconocer la posibilidad de “acción” a agentes no humanos. Pensemos que cuando un perro muerde a alguien, la acción que se valora y enjuicia en un posible litigio no es la acción del propio perro al morder, sino la del dueño del perro en la custodia y manejo más o menos diligente del animal. Personificar la IA a afectos de responsabilidad supone entrar en un mundo completamente diferente, en un mundo en el que nos planteamos la posibilidad de una acción autónoma no humana.

Una visión antropomórfica de la IA. La importancia del cuerpo


Y una vez en este nuevo mundo, a lo que primero tendemos es a humanizar la IA. Nuestra aproximación espontánea nos lleva a una visión antropomórfica de la IA. O dicho de otra forma, pensamos en un robot y, en particular, en un androide. En artefactos que recuerdan la forma de un ser humano: con una cabeza donde se ubican los dispositivos sensores y de comunicación, un tronco con las baterías y su sistema de recarga, dos piernas para el desplazamiento y dos brazos y manos para la presa y manipulación.
Esto es algo que debemos, por supuesto, a toda la imaginería puesta en circulación durante décadas por las obras de ciencia ficción, pero no le falta un fundamento muy real. Y no se trata sólo de razones comerciales o de marketing que guiarían a las empresas que fabrican este tipo de ingenios, en atención a que el consumidor puede empatizar más fácilmente con un artefacto de figura humana. Si los seres humanos somos inteligentes y capaces de acción inteligente, no es ello algo ajeno a la peculiar configuración de nuestro cuerpo físico (la posición erguida, los órganos de visión centrados, el pulgar contrapuesto a los otros dedos). Incluso podríamos decir –siguiendo las interesantes observaciones del neurocientífico Antonio Damasio-, que es disponer de y tener a nuestro cargo un cuerpo físico lo que nos ha hecho inteligentes y en concreto autoconscientes.
El cuerpo nos introduce en el mundo, nos permite percibirlo y relacionarnos con él, pero también es nuestro límite, nuestra frontera. Nos sitúa y nos hace ocupar un determinado lugar dentro del espacio físico. Delimita lo que soy yo frente a todo lo que no soy yo, porque está fuera de la delimitación espacial de mi cuerpo. Y la conciencia humana, el yo –y también el yo jurídico-, surgiría necesariamente de esta delimitación y contraposición: del sentimiento primario de percibir internamente un trozo de materia como propio frente a todo el mundo ajeno circundante.
Frente al dualismo cartesiano, que contraponía radicalmente el mundo físico material –la res extensa- y el mundo del espíritu o la mente –la res cogitans-, una visión más realista y certera nos enseña que para ser inteligentes necesitamos de un cuerpo, con sentidos que nos sitúan en el mundo, que nos dotan de percepción tanto externa como interna, pero también como punto de referencia de nuestra experiencia existencial, sobre el que construir nuestro yo. En concreto, no puede haber inteligencia autoconsciente sin cuerpo (visión no dualista ésta que no es precisamente ajena al pensamiento cristiano, cuando en su credo hace referencia a la “resurrección de la carne”, y no de espíritus puros o incorpóreos).

Los ámbitos de la IA


En el ámbito de la IA se viene distinguiendo una “IA situada” de una “IA no situada”. La primera sería la propia precisamente de los robots o androides, artefactos más o menos inteligentes dotados de un “cuerpo” físico diferenciado. Mientras que la IA no situada consistiría en simples programas informáticos que se ejecutan en dispositivos de computación muy variados que no pretenden emular un cuerpo. Al final, por supuesto, no existe informática sin hardware, sin soporte material, pero este tipo de aplicaciones de IA no están vinculadas a un hardware que recuerde a un cuerpo humano. Y aunque, como decía antes, cuando oímos hablar de IA la primera imagen que se nos viene a la mente es la de un robot, es con mucha diferencia la IA no situada la que de momento tiene más relevancia en nuestro actual entorno social. El fenómeno explosivo del Big Data y de su analítica mediante IA es algo que tiene muy poco que ver con los androides y mucho más con centros de datos, servidores informáticos y computación en la nube.
Y esto es algo que los juristas no podemos desconocer cuando nos planteamos el posible tratamiento jurídico del fenómeno de la IA. Pero de ello nos seguiremos ocupando en el siguiente post.
Otros artículos
  • Legal Tech
Legal Tech: entre la transparencia y el hermetismo
por Manuel González-Meneses
La tecnología y el mundo del derecho Entre el mundo del derecho y la tecnología ha existido siempre una peculiar dialéctica o tensión. Cuando hablamos ahora de tecnología, pensamos en digitalización, ordenadores, Internet y teléfonos móviles, pero el asunto
17 enero 2020
  • Legal Tech
Garantizando la autoría del mensaje digital o cómo la preocupación por la privacidad llevó a la firma digital (Explorando la frontera digital IV)
por Manuel González-Meneses
En mi post anterior me ocupé de la cuestión de cómo garantizar la integridad del contenido de eso en apariencia tan evanescente como un archivo digital: cómo de la conservación controlada del soporte físico en que está registrado el archivo se pasa a ese
24 mayo 2019
  • Legal Tech
La integridad documental en el medio digital: del depósito del soporte a la función hash (Explorando la frontera digital III)
por Manuel González-Meneses
En el anterior post de esta serie intenté explicar cómo la digitalización es una peculiar forma de codificar información, consistente en emplear un código de dígitos binarios (cuestión puramente lógica o lingüística), lo que a su vez permite la mecanización
22 marzo 2019

Share

Llámanos
Admisiones: +34 662 98 80 37Información General: +34 91 514 53 30