I. INTRODUCCIÓN
A la inteligencia se le imputa la capacidad de entender y comprender, que incorpora su mayor naturaleza aspirativa, en la que parece no haber límites. También alude a su nivel de expresión más tangible como la habilidad, la destreza y la experiencia que son su aplicación más visible o real. Asimismo, se apunta a su naturaleza espiritual lo que le permite conectar con las virtudes humanas, activarlas y darles un mayor sentido. Estamos frente a un fenómeno que ostenta la capacidad de interpretar datos externos, para aprender de los mismos y poder utilizar esos conocimientos para realizar tareas y metas en virtud de la adaptación flexible.
Es ciertamente complejo concretar el origen del fenómeno de la Inteligencia Artificial –IA–. Existen instrumentos que podrían considerarse manifestaciones rudimentarias del mismo, como, entre otros, la máquina universal –que parte de un componente físico– de Alan Turing (1936) o el computador de John Von Newman (1950). Puede, igualmente, mencionarse una conferencia celebrada en los Estados Unidos –Dartmouth College, 1956– que se posiciona en los albores de esta sugerente cuestión. En relación a la misma, cabe citar a científicos como John McCarthy, Marvin Minsky, Allen Newell y Herbert Simon. A partir de la década de 1970, la IA se centró cada vez más en el desarrollo de algoritmos de aprendizaje automático, que permitían a las máquinas formarse a través de la experiencia. A medida que la potencia de procesamiento y la cantidad de datos disponibles aumentaron, la IA se volvió más sofisticada y comenzó a ser utilizada en una amplia gama de aplicaciones.
Aunque no existe una definición unánime de IA, la misma constituye un campo de la Ciencia y de la Ingeniería que se ocupa de la comprensión –desde el punto de vista informático– de lo que se denomina comportamiento inteligente. El Libro Blanco sobre la IA (un enfoque orientado a la excelencia y la confianza) la define a partir de sus tres elementos esenciales: conjunto de datos, conjunto de algoritmos y capacidad informática. Se trata de un sistema que, en definitiva, busca imitar las diversas capacidades del cerebro humano para presentar comportamientos inteligentes, sintetizando y automatizando actividades intelectuales. A este respecto, la Real Academia de la Lengua dispone que es la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana como el aprendizaje o el razonamiento lógico. La IA se considera como la Ciencia e ingenio de hacer máquinas inteligentes, sobre todo programas de cálculo inteligente.
La IA se está implementando cada vez más en todo el mundo, y se espera que continúe expandiéndose en una notable variedad de sectores. Habida cuenta de la relevancia de la IA, determinados países, como España (1) , han creado una Agencia de Supervisión de la Inteligencia Artificial. Esta última se enmarca en la Agenda España Digital 2026, en la Estrategia Nacional de Inteligencia Artificial y en el Plan de Recuperación, Transformación y Resiliencia.
Resulta ciertamente complejo poder efectuar predicciones en esta materia, dada la celeridad a la que evoluciona. Asistimos, con cierto asombro, al desarrollo de sistemas de IA impensables hace unos años. Con relativa habitualidad, tenemos conocimiento de una nueva aplicación o avance en este avance científico o tecnológico por el impulso de empresas (multinacionales y start-up), así como de Universidades y centros de investigación. Bajo la cobertura del fenómeno de la IA, se engloban realidades muy heterogéneas. Dentro de los mismos, podemos, a título de ejemplo, referirnos al caso de los robots inteligentes y los problemas que se suscitan a propósito de su posible personalidad electrónica; los vehículos autónomos; los drones; y la salud digital. A las particularidades que cada uno de ellos plantea, desde una óptica jurídica, nos referiremos seguidamente.
II. MARCO ÉTICO DE LA IA
La IA, cada vez en mayor medida, se emplea en más procesos y acciones, por lo que así pueden acometerse mejor y con más celeridad, automatizándose actividades que hasta hace poco estaban reservadas a las personas. Uno de los criterios que resulta más difícil de superar es la evaluación ética de los descubrimientos científicos. Cuando la Ciencia protagoniza determinados avances, se plantean ciertos cuestionamientos, a propósito de la ética, así como si la nueva situación es compatible con nuestros valores comunes. Que la tecnología se preste a distintos usos no es equivalente a que la tecnología en sí misma resulte neutral. A priori, podría entenderse que la misma está diseñada para ayudar al cumplimiento de fines e intereses humanos que sean buenos para los individuos y grupos, pero también para el conjunto de la sociedad. Un sector de la doctrina (2) ha planteado un marco ético (3) para el examen de estas tecnologías según la modalidad de tecnología, su significado y su proyección de futuro. En estos ámbitos se suele aludir a diversos problemas vinculados con la igualdad y no discriminación, la protección de datos personales, la responsabilidad, la autonomía, entre otros. Numerosos estudios se han referido a los eventuales riesgos y violaciones que pueden plantearse en relación a ciertos derechos fundamentales (4) .
Una de las cuestiones que plantean más problemas es la autonomía de las aplicaciones o de los sistemas inteligentes. En el caso de que la obra se desvincule de su autor para adoptar decisiones, sobre todo cuando las mismas sean inesperadas, entramos en el terreno de la incertidumbre.
Los sistemas inteligentes cuentan con determinadas facultades que, de hecho, superan a las humanas como, entre otras, son la ausencia de frustración en la consecución de metas, los dilemas perturbadores y la reflexión. El escenario que se plantea cambia cuando surge el atisbo de sentimientos donde se empezarían a reproducir todos los males que interfieren en las actividades de los seres humanos.
Otra materia que se discute es si existirá un momento en el que se pueda afirmar que las máquinas tengan algo asimilable a la conciencia. El punto de partida, en este sentido, es que no existe consenso sobre este último término. Con carácter general, se entiende que es tener percepción del entorno. Debe discernirse, pues no son lo mismo, la capacidad de sentir –que puede ser hambre, frío o calor– y la autoconciencia –que aludiría a la reflexión de quién soy y mi labor en este mundo–. De esta manera, podemos afirmar que la conciencia perceptual es relativamente sencilla de reproducir, si bien la autoconciencia no sólo es más compleja de imitar en sistemas artificiales, sino incluso de definir cuando se refiere a humanos. Podría, por tanto, afirmarse que realmente no hay conciencia, dado que lo que impera es una imitación a partir de determinados datos. Los sistemas de IA no pueden sentir motivaciones internas, dado que todo cuanto externalizan obedece a una previa información descausalizada. La máquina inteligente no es capaz de describir estados emocionales procedentes del entorno y de su aprendizaje, sino que únicamente puede calcular posibles escenarios, dependiendo de la información que se le haya suministrado, adaptando, para ello, la decisión teóricamente conveniente.
Han de replantearse los criterios éticos que deben incidir en el desarrollo de la IA (5) , prestando especial atención a parámetros universales como son el bien y el mal en abstracto. La cuestión que, en cierto sentido, podría advertirse es si resulta posible imprimir en los sistemas de IA propósitos únicamente positivos, así como enseñarles de determinada manera.
En 2018, en el seno de la Comisión Europea, se debatieron las distintas sensibilidades respecto a la regulación ética de la IA. Europa es consciente de que debe tomarse partido, en esta sugerente materia, y adelantarse a una tendencia normativa mundial que probablemente no sea ágil. No resulta sencillo proponer un marco ético de acción porque la temática despierta tantas incertidumbres como posibilidades.
III. DERECHO DE LA IA
Como la realidad cotidiana pone de manifiesto, la IA ha evolucionado con notable celeridad en los últimos años. Se ha convertido en una herramienta de utilidad en diversos sectores como los vehículos autónomos, la salud o la automatización de los procesos. La tecnología debe estar al servicio de las personas, pero no debe convertirnos en sujetos pasivos que estén a merced de las máquinas, que limiten la libertad y la capacidad de iniciativa (6) .
Ahora bien, existe cierta preocupación por la ausencia de regulación legal sobre la materia. Debe tomarse conciencia del hecho de que la IA tiene una doble faceta. Por un lado, tal herramienta es susceptible de ayudar a la resolución de problemas de cierta complejidad. Por otro lado, puede utilizarse con fines eventualmente espurios. Dentro de los últimos supuestos podemos referirnos a los casos en los que se utilizan sistemas de reconocimiento facial que podrían ser susceptibles de discriminar determinados grupos étnicos.
A todo ello trata de responder la normativa legal aprobada por parte del legislador que es objeto de complemento en virtud de la autorregulación de la industria. A nivel comunitario, cabe destacar la Propuesta de Reglamento de la IA, que presenta un alcance general y que será obligatoria en todos sus elementos y directamente aplicable a todos los Estados. En este sentido, cuando entre en vigor, sus preceptos tendrán fuerza de ley, a diferencia de los códigos éticos que tienen carácter facultativo.
1. Normativa imperativa sobre la materia
Dentro de la cuarta revolución industrial y la era de la información, los Estados Unidos, la Unión Europea, organismos internacionales –como la ONU– y determinadas empresas privadas –como Google, IEEE y Microsoft– con una notable influencia en el desarrollo tecnológico actual de la humanidad, nos permite afirmar la tendencia hacia la configuración de un elenco de principios básicos en materia de regulación jurídica de la IA. Antes de entrar en materia, podemos enunciar las populares tres leyes de la robótica formuladas por Asimov: 1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño; 2. Un robot debe cumplir las órdenes dadas por parte de los seres humanos, salvo que entren en conflicto con la primera ley; 3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley. La economía mundial está entrando en una etapa en la que la IA ostenta el potencial para liderar nuevos tiempos.
En este apartado, cabe plantearse si es conveniente una regulación general o sectorial de la IA. Estados Unidos todavía no ha introducido legislación horizontal en el espacio digital, priorizando las leyes sectoriales y, además, fomenta la innovación en IA. En este sentido, debe ponerse de relieve que una normativa sectorial dejaría sin regular numerosas aplicaciones de la IA aplicadas al uso general. Por el contrario, una regulación general, serviría de base, jurídica y ética, para los especiales desarrollos particulares de la IA.
A nivel europeo, en abril de 2021, se aprobó, por parte de la Comisión Europea, la propuesta de Reglamento de IA. Dicho documento tiene por objeto armonizar las normas relativas a la IA en la Unión Europea para alcanzar un marco jurídico uniforme protector de los derechos fundamentales de los ciudadanos. Permitir que los Estados legislen, de forma independiente, puede implicar la fragmentación del mercado interior y, además, reducir la seguridad jurídica de los operadores que desarrollan, importan o utilizan sistemas de IA.
Asimismo, busca crear un espacio seguro para la innovación en IA que ostente un elevado nivel de protección del interés público, la seguridad, así como los derechos y libertades fundamentales. También se persigue que cree las condiciones para un ecosistema de confianza que fomente la adopción de servicios de IA. La propuesta sigue un enfoque basado en el riesgo, lo que implica que se aplicarán ciertas obligaciones y restricciones según el nivel de riesgo derivado del uso de la IA. El Reglamento establece una serie de mecanismos de control para garantizar el cumplimiento de las normas, incluyendo la designación de autoridades nacionales de supervisión y la posibilidad de imponer sanciones por la inobservancia de las normas.
El Reglamento será aplicable a todos los usos de la IA que afecten a los ciudadanos de la UE con independencia de la sede del proveedor de servicios o del lugar en el que ejecute el sistema (dentro o fuera de las fronteras de la UE). En esta línea se posicionan otros Reglamentos de la UE, como el Reglamento General de Protección de Datos, y otras propuestas legislativas, como la Digital Markets Act y la Digital Services Act.
Posteriormente, tuvo lugar el proceso ordinario de legislación de la Unión Europea. Esto supone que el Consejo de la Unión Europea y el Parlamento Europeo adopten sus posturas en relación a la propuesta de la Comisión, para, a continuación, llegar a un acuerdo en las negociaciones, y poder alcanzar un texto definitivo. En diciembre de 2022, el Consejo de la Unión Europea se posicionó respecto a la propuesta de Reglamento de Inteligencia Artificial. Asimismo, el trabajo en el Parlamento Europeo progresa con cautela.
Con carácter general, parece un texto con un articulado adecuado para ofrecer un entorno de confianza para que Europa sea un referente en los sistemas de IA innovadores en los que se tutelen los derechos y las libertades de acuerdo con los valores de la UE.
2. El sugerente complemento de la autorregulación de la industria
Existen diversas vías en base a las que puede encauzarse el desarrollo, despliegue y utilización de la IA. Cómo hace más de dos décadas determinó el reconocido abogado Lawrence Lessig –profesor de Derecho de la Universidad de Harvard, Standford y Chicago, además de fundador de Creative Commons–, respecto a la ordenación de la Red, la propia tecnología, en virtud del código informático, implica una forma material de ordenación, al fijar las características y límites de los sistemas. La autorregulación se refiere al conjunto de políticas, buenas prácticas, y códigos de conducta con un marcado carácter ético que se establecen para garantizar que los sistemas de IA sean seguros, éticos y responsables en los procesos de toma de decisiones.
El fenómeno de la autorregulación –soft law– goza de un mayor protagonismo y desarrollo en el mundo anglosajón, en la que la industria se adelanta al legislador, mientras que en el Derecho continental europeo es el legislador el que fomenta el recurso a este instrumento, a través del Derecho imperativo –hard law–. En materia tecnológica, existen ciertas corrientes que no se posicionan a favor del Derecho imperativo en esta materia. Podría tratarse de una prevención general que tiende a ver el Derecho, en sentido estricto, como una limitación para el desarrollo tecnológico o social. En cualquier caso, estimamos que es un planteamiento erróneo, pues la autorregulación complementa, pero no sustituye, la normativa legal vigente en cada momento. Los instrumentos legislativos crean un marco de seguridad jurídica, haciendo realidad las aspiraciones éticas, fijando incentivos adecuados, y medidas que aseguren el respecto de los derechos fundamentales. La función que el Derecho desempeña no se puede sustituir, siempre en coordinación con mecanismos de autorregulación.
La autodisciplina puede incluir la implementación de mecanismos de verificación y auditoría para detectar y corregir posibles sesgos o eventuales discriminaciones en los algoritmos de IA, así como el establecimiento de estándares de privacidad para proteger los derechos de las personas afectadas por el uso de esta tecnología. La autorregulación de la industria incide en el alcance que tendrán las tecnologías de IA, teniendo la virtud de su fácil adaptación ante el desarrollo tecnológico y su interiorización.
Existen diversas iniciativas que, sobre este particular, conviene destacar. Hay algunos códigos de conducta que se vinculan con las declaraciones unilaterales de voluntad –como el código de conducta de Bosch relativo a la IA–. Asimismo, existen otros documentos, como la Guía de buenas prácticas para el uso de la IA ética. Este último documento ha sido elaborado por OdiseIA, PwC, Google, Microsoft, IBM y Telefónica.
IV. ALGUNAS MANIFESTACIONES DE LA IA
Como la realidad cotidiana pone de manifiesto, estamos frente a un cambio social que ya ha comenzado, si bien todavía no se ha llegado a dar en su totalidad. El potencial disruptivo de la IA es muy notable, siendo patente su capacidad para hacer posible mejores condiciones de vida, atención del medio ambiente (sostenibilidad), crecimiento económico, eficiencia y calidad respecto a los servicios en los que se implementa. Los límites de la Ciencia en la creación de máquinas inteligentes, a fecha de hoy, no se han alcanzado. El nivel de autonomía de las máquinas que se utilizan es reducido. En este sentido, se ignora cuál es el que pueda a llegar a alcanzarse en el futuro, si bien la interacción que los sistemas de IA tienen con los seres humanos es progresivamente mayor.
1. Los robots inteligentes: a propósito de su eventual personalidad jurídica electrónica
Con carácter previo al análisis somero de esta sugerente cuestión, debemos dar una definición de robot. No podemos entender por tal las máquinas que efectúan labores meramente reiterativas. Son aquellas que pueden interactuar con las personas o con otros robots, analizar datos, aprender y tomar decisiones de forma autónoma. En definitiva, son aquellas máquinas cuyo comportamiento se asimila más al de los seres humanos (7) . A juicio de algunos, podría equipararse al concepto de «cosa» presente en el artículo 333 del Código civil español. Este último dispone que «todas las cosas que son o pueden ser objeto de apropiación se consideran como bienes muebles o inmuebles». Aunque se diferencien de las cosas, por la capacidad de aprendizaje que ostentan, continuarán siendo cosas, pero, por su singularidad, en el futuro gozarán de un tratamiento distinto (8) . La cuestión sobre la personalidad jurídica de la IA pone la atención sobre algunos aspectos muy problemáticos que el Derecho tiene con el concepto de personalidad. Abordar este problema de la IA pone de relieve que no disponemos de una teoría satisfactoria de la personalidad jurídica o moral (9) .
A nivel comunitario, los diversos instrumentos normativos que se han pronunciado, a este respecto, no se refieren a la personalidad jurídica de los robots (10) . En este sentido, recientemente la UNESCO aprobó las Recomendaciones sobre ética de la IA, destacando la número 68 que rechaza el reconocimiento de personalidad jurídica a los robots. Estos últimos que pueden adoptar decisiones de manera autónoma, no tienen personalidad jurídica, por lo que no se les puede atribuir responsabilidad por los daños y perjuicios que produzcan a terceros, debiendo responder, en consecuencia, una persona (física o jurídica).
Uno de los problemas más significativos que los robots plantean es el de su responsabilidad. Para poder responder a tal extremo, se recurre a la a Directiva 85/374/CEE del Consejo de 25 julio 1985 relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos. La citada norma europea es objeto de complemento por parte de la a Directiva 2019/771, de 20 de mayo de 2019, relativa a determinados aspectos de los contratos de compraventa de bienes, por la que se modifican el Reglamento (CE) n. 2017/2394 y la Directiva 2009/22/CE y se deroga la Directiva 1999/44/CE. Cabe reseñar que, aunque la última norma europea no aborda por completo el tema que es objeto de examen, incluye nuevas medidas aplicables a los sistemas de IA. Nos referimos a la posibilidad de permitir la formación de un litisconsorcio pasivo necesario entre usuario del producto, vendedor del mismo, desarrollador y fabricante.
Ahora bien, en este orden de cuestiones, la normativa podría incluir sistemas para eludir la responsabilidad de los productos defectuosos. En el caso de España, puede citarse, entre otros, el art. 140 del Real Decreto Legislativo 1/2007, de 16 de noviembre, por el que se aprueba el Texto Refundido de la Ley General para la Defensa de los Consumidores y Usuarios y otras leyes complementarias –TRLGDCU–, a propósito de las causas de exoneración de la responsabilidad, en su letra e), dispone que el productor no será responsable si prueba que el estado científico técnico del conocimiento existente en el momento de la puesta en circulación del producto no permitía apreciar la existencia del defecto. Las causas de exoneración que, con carácter general, se incluyen en el art. 140 de la mencionada norma parecen complejas de aplicar a la IA y a los robots. En estos supuestos lo más aconsejable sería establecer un sistema de responsabilidad objetiva (11) –atribuible al propietario, arrendador o poseedor– complementado en virtud de un seguro obligatorio de responsabilidad civil que tuvieran que celebrar los usuarios de robots autónomos (12) . Asimismo, sería deseable la existencia de un Fondo de compensación de seguros en esta materia (especialmente útil en los casos de ausencia de seguro). La nueva casuística que surge, debido a la autonomía de los robots, da lugar a un nuevo espacio sobre la responsabilidad que se deriva del comportamiento de quienes diseñan, programan o manipulan tecnologías cuya funcionalidad depende de la IA (13) .
En este último sentido, cabe considerar que la Propuesta de Directiva para adaptar las normas de responsabilidad extracontractual en la Inteligencia Artificial, de 28 de septiembre de 2022, establece que, ante la dificultad de poder probar el acto ilícito, así como la identificación del causante del daño, se propondrán nuevas obligaciones de información, por parte de las empresas, y la reducción de la carga de la prueba en los procedimientos de reclamación de daños y perjuicios producidos por los sistemas de IA.
En definitiva, para los daños que produzcan los robots a terceros se aplicará la normativa sobre productos defectuosos si concurre responsabilidad del fabricante, mientras que si los daños se producen por actuaciones del usuario se aplicará el régimen general de responsabilidad. En el caso de la responsabilidad civil contractual se recurrirá al art. 1101 del Código civil y para la responsabilidad civil extracontractual el art. 1902 del mismo cuerpo legal. En cualquier caso, mientras más elevado sea el nivel de autonomía de los robots, más complejo será aplicar la normativa sobre responsabilidad civil, pues la responsabilidad de los diversos agentes podría quedar, en cierta medida, diluida.
2. Los vehículos autónomos
El término «vehículo» se utiliza para hacer alusión a aquellos aparatos adecuados para circular por las vías o terrenos, según la definición ofrecida por el Anexo I, en su punto sexto, del Real Decreto Legislativo 6/2015, de 30 de octubre, por el que se aprueba el Texto Refundido de la Ley sobre el Tráfico, Circulación de vehículos a motor y seguridad vial. La conducción autónoma está alcanzando tal nivel de desarrollo que se asimila a la de carácter humano. En la medida en que aumenta el nivel de automatización, las funciones a desarrollar por las personas van simplificándose. De ser el protagonista activo de la conducción llega a ser un mero supervisor del sistema y cuando la conducción está plenamente automatizada, es una suerte de pasajero que inserta en el sistema las coordenadas de destino.
Existen varios fabricantes de coches autónomos (14) como, entre otros, Google, Tesla, Volvo, Toyota, Waymo, Cruise, Argo AI, Aurora y Mercedes Benz. Para poder desarrollar su labor recurren a diversos instrumentos técnicos como, entre otros, sensores, radares, láseres, cámaras y GPS. Desde hace algunos años, existen vehículos que, entre otros avances tecnológicos, funcionan con velocidad de crucero, asistente de mantenimiento de carril o aparcamiento asistido. Resulta importante que los sistemas de IA aprendan de la experiencia y puedan predecir cómo se desarrollará la situación. Con la cantidad de información que progresivamente se va a ir integrando en los sistemas de IA, se irán desplegando modelos de situación que se almacenarán en redes neuronales, a partir de los cuales se desarrollarán nuevos algoritmos que se implantarán en el vehículo autónomo. En toda situación, la IA del vehículo se beneficiará a la experiencia de una ingente cantidad situaciones, para tomar la decisión correcta en un brevísimo lapso de tiempo. Ahora bien, no sólo se busca que los vehículos cuenten con cada vez más avances, dado que se persigue que las infraestructuras sobre las que los mismos se desplazan también incorporen ciertas mejoras –smart-roads–. Dentro de estas últimas, entre otras, podemos señalar las siguientes: instalación de sensores y cámaras que capten determinada información y la transmitan a los vehículos conectados; luminarias inteligentes; pinturas fotosensibles; y pasos de cebra inteligentes. Todo ello representará ciertas ventajas para sus usuarios. Dentro de los mismos, podemos señalar, sin ánimo agotador, la reducción de accidentes (debido a una mayor seguridad); un medio ambiente más limpio y sostenible; y conocimiento, a tiempo real, del estado y saturación de las carreteras.
Ahora bien, no todo son prerrogativas, ya que imperan ciertos riesgos que no han de pasar desapercibidos. Uno de los ámbitos en los que pueden plantearse violaciones es el de la privacidad. En efecto, las aplicaciones a las que las marcas de los vehículos recurren (así, por ejemplo, Audi Conect, Mercedes Me, Apple Carplay y Android Auto) para permitir ciertas funcionalidades permiten establecer estilos de vida (trazando determinados perfiles), acceder a nuestra agenda de contactos, conocer nuestra voz y leer mensajes –a través de instrumentos de mensajería instantánea o directa–. En los supuestos que se enumeran se están tratando datos de carácter personal, por lo que tales actividades están sujetas al Reglamento Europeo de Protección de Datos (RGPD), así como a la Ley Orgánica 3/2018 de 5 de diciembre, de Protección de Datos Personales y Garantía de los derechos digitales.
Aunque pueda parecer remoto, aprovechando sus vulnerabilidades (15) , cabe la posibilidad de que los vehículos autónomos se utilicen como una suerte de herramientas de ataque. Dado que los vehículos autónomos, en virtud de sistemas de visión y procesamiento de la información, identifican a los peatones, si se modifican ciertos píxeles de esas imágenes, podría evitarse que el sistema detectase un peatón, para, así, impedir el frenado del vehículo, pudiendo causar un accidente.
Con el devenir de los años, y la perfección de los sistemas de IA aplicados a los vehículos, los accidentes de tráfico se deberán cada vez más a fallos del sistema y menos a la conducta de las personas –esto último es lo que, dicho sea de paso, impera a fecha de hoy–, a diferencia de la situación presente, en que es el conductor a quien se le imputa la responsabilidad por los daños causados. De ahí que normalmente el productor no tenga que responder. Uno de los mayores desafíos a los que deberán enfrentarse los legisladores en esta materia es que no sólo tendrán que adaptar la normativa de tráfico y seguridad vial, carnet de conducir, y el sector asegurador, dado que la introducción de los mismos tendrá consecuencias en la casi totalidad de las ramas del Derecho. Aunque debería desarrollarse normativa con alcance global, la diversidad legislativa es ciertamente notable. Así, existen países que han legislado sobre la materia, como Estados Unidos o Corea del Sur, mientras que otros Estados, como España e Italia, no cuentan con normas al respecto. En España, de hecho, no está permitido el uso de vehículos totalmente autónomos, excepto que se encuentren en fase de pruebas (16) . A nivel comunitario, el Parlamento Europeo (17) se ha manifestado a favor de la regulación de la cuestión que se analiza para ofrecer seguridad jurídica tanto a usuarios como partes interesadas.
En todo caso, el actual régimen legal se verá remplazado cuando se efectúe la comercialización masiva de los vehículos autónomos y entren en circulación en el mercado. Dado que el sistema de conducción avanzada está al mando del vehículo y ejecuta sus oportunas decisiones, en este sentido, será el productor el que habrá de responder de los daños causados, según el Real Decreto Legislativo 1/2007, de 16 de noviembre, por el que se aprueba el texto refundido de la Ley General para la Defensa de los Consumidores y Usuarios y otras leyes complementarias. Ahora bien, el operador también podrá ser responsable, de acuerdo con el art. 1902 Código Civil. En efecto, ello acontecería en el supuesto de la omisión del preceptivo y periódico mantenimiento del vehículo, o actuase con culpa o negligencia.
3. Los drones
Cada vez más empresas recurren a los Vehículos Aéreos No Tripulados –UAV–, o coloquialmente llamados drones, para efectuar sus actividades (18) . A tenor del Real Decreto 601/2016, de 2 de diciembre, por el que se aprueba el Reglamento de la Circulación Aérea Operativa, en este concepto puede entenderse incluido todo «vehículo aéreo propulsado que no lleva personal como operador a bordo». Aunque el dron sea reputado un vehículo aéreo no tripulado, a tenor de la Ley 48/1960, de 21 de julio, sobre Navegación Aérea, debe ser considerado una aeronave. Asimismo, el Convenio sobre Aviación Civil Internacional de 1944 –conocido como Convenio de Chicago– recurre al término de «aeronave sin piloto», prohibiendo su vuelo en el territorio de los Estados parte, salvo que tenga autorización de este último. A nivel español, el Real Decreto 1036/2017 define la aeronave pilotada por control remoto como una aeronave no tripulada que se dirige a distancia desde una estación de pilotaje remoto.
El ámbito civil de los drones se está desarrollando de manera rápida gracias a la transferencia de tecnologías desde el sector de la defensa o militar. Las posibilidades que los mismos ofrecen son muy variadas: control industrial, vigilancia y fotografía aérea que, unida a la IA, proporciona una visión computarizada. Hace algunos años, Amazon se planteó recurrir a los mismos para automatizar la entrega de pedidos. En virtud de estos dispositivos, los tiempos de entrega podrían reducirse de manera significativa. En cualquier caso, los drones, para poder desarrollar su labor de manera exitosa, requieren la participación de humanos, con carácter previo, que, entre otras actividades, planifiquen la acción, efectúen un análisis topográfico de la zona y estudien el tráfico aéreo. La IA aplicada a los mismos puede reducir el margen de error, restringiendo el lapso temporal para tomar cualquier decisión. Existen múltiples iniciativas –Microsoft AirSim; Microsoft y DJI– que han recurrido a la IA para fomentar el uso de la IA y machine learning en estos dispositivos.
Sobre esta materia, a nivel comunitario, cabe referirse a los siguientes documentos: Reglamento 2018/1139, sobre normas comunes en el ámbito de la aviación civil y por el que se crea una Agencia de la Unión Europea para la seguridad aérea; Reglamento 2019/945, sobre los sistemas de aeronaves no tripuladas y los operadores de terceros países de sistemas de aeronaves no tripuladas que establece los requisitos para el diseño y la fabricación de los sistemas de aeronaves no tripuladas; y el Reglamento 2019/947, relativo a las normas y los procedimientos aplicables a la utilización de aeronaves no tripuladas.
Ahora bien, a pesar de sus múltiples prerrogativas, los drones pueden vulnerar la normativa en materia de protección de datos. Existen grupos de derechos y libertades civiles que han mostrado su preocupación, solicitando controles más rigurosos para proteger la privacidad. La información que se recoge por los drones, especialmente cuando la utilizan los Gobiernos o las fuerzas de seguridad, es muy sensible. En este sentido, los piratas informáticos podrían acceder a importantes cantidades de datos que almacenan, pero también a la información del servidor central al que estén conectados.
4. La salud digital
La aportación de la IA es un beneficio que nos aporta el progreso científico y tecnológico, que supondrá una mejora de la atención sanitaria y, por tanto, en un mayor nivel de salud de las personas. La OMS por salud considera el estado de completo bienestar físico, mental y social y no sólo la ausencia de enfermedades. Una de las grandes aportaciones de la IA será constituirse en un instrumento de apoyo para el profesional sanitario para ofrecer diagnósticos y tratamientos más rápidos, fiables, personalizados y precisos. Por otro lado, para los pacientes, abrirá la puerta a nuevas posibilidades de tratamiento de enfermedades que en fechas pretéritas podían no tener buen pronóstico.
La necesidad de digitalizar la salud –y cuando ha sido posible recurrir a la IA– es uno de los aprendizajes de la crisis sanitaria producida por la pandemia del coronavirus a nivel mundial. Los sistemas tecnológicos de IA, fomentados con los requerimientos de la pandemia (19) , con la necesidad de crear y consolidar mecanismos de rastreo y seguimiento de contactos, ha impulsado el recurso a adaptaciones tecnológicas digitales. La digitalización, en este sentido, se erige en un requerimiento para mantener la funcionalidad del servicio público sanitario.
La salud digital se refiere al uso de tecnologías digitales (como la telemedicina (20) , la salud móvil, las consultas por videollamada y los registros electrónicos de salud) para mejorar la atención médica y la calidad de vida de los pacientes. En materia de salud, la IA se utiliza para optimizar el diagnóstico, la toma de decisiones clínicas, la gestión de datos y la automatización de tareas repetitivas.
La combinación de la salud digital y la IA puede mejorar la atención médica, ya que posibilita una mayor personalización de los tratamientos, una mejor prevención de enfermedades y una atención más eficiente. Se trataría, en definitiva, de dar al paciente correcto el tratamiento adecuado, en su dosis precisa, en el momento oportuno. En cualquier caso, también hay desafíos asociados con estas tecnologías como, entre otros aspectos, la privacidad y la seguridad de los datos. La IA necesita importantes cantidades de datos de pacientes para aprender y mejorar sus algoritmos. La recopilación y el uso de estos datos pueden suscitar ciertos problemas de privacidad y seguridad. Por ello, es necesario garantizar que los datos sean recopilados y utilizados de manera ética y legal.
A nivel comunitario, la prestación de servicios de salud digital es objeto de regulación por parte de los arts. 56 y 57 del Tratado de la Unión Europea –TUE–. Desde la perspectiva de la asistencia sanitaria privada, la medicina digital ha de ser disciplinada como servicios dirigidos a usuarios que los contratan en su doble condición de consumidores y de pacientes. En la actualidad resultan de aplicación los siguientes documentos: Directiva 98/34 sobre servicios de la sociedad de la información; Directiva 2000/31, sobre comercio electrónico; Directiva 2019/2161 respecto a la mejora de la aplicación y la modernización de las normas de protección de los consumidores de la Unión, cuyas normas afectan al TRLGDCU; Directiva 2011/24 sobre derechos de los pacientes en la asistencia sanitaria transfronteriza; y el Reglamento 2016/679 sobre protección de las personas físicas respecto al tratamiento de datos personales y la libre circulación de dichos datos.
La IA en la atención médica plantea importantes dilemas en el plano de la ética y de la responsabilidad. Así, por ejemplo, podría suscitarse la duda de quién es responsable cuando se plantean errores o daños generados por sistemas de IA y cómo debe manejarse la toma de decisiones complejas que involucran valores éticos.
En definitiva, la aplicación de las diversas tecnologías que se integran dentro de la IA en el ámbito sanitario aportará aspectos positivos para los usuarios, los profesionales de los servicios de salud y para el interés general –al que responde la actuación de las administraciones sanitarias–. Estamos ante un instrumento tecnológico que puede facilitar el incremento del nivel de salud a título individual y colectivo de la salud pública.
V. CONCLUSIONES
La IA está transformando la sociedad en múltiples aspectos. A medida que las aplicaciones de IA son más sofisticadas, es necesario que los sistemas normativos evolucionen para abordar los desafíos y oportunidades que se presentan. La IA tiene un objetivo en virtud de un algoritmo: un elenco de instrucciones u órdenes que una computadora debe ejecutar.
Un alto porcentaje de los robots a los que se recurre, aun siendo precursores de la IA, tienen en común un carácter que es nuclear para la valoración de su responsabilidad: la máquina funciona y adopta decisiones que han de ser controladas por las personas que la han diseñado, programado o utilizado en base a los sistemas de retroalimentación informativa que la misma proporciona. En términos de regulación, ciertos Estados han desarrollado leyes específicas para regular la IA, mientras que otros están trabajando en ellas. La Unión Europea ha adoptado una propuesta de Reglamento sobre la IA que busca establecer un marco legal para el uso de la IA, y otros países han seguido su ejemplo.
Dado que la Ciencia avanza, de manera imparable, y más, si cabe, cuando presenta un retroalimentador que la impulsa, es probable que rebase los límites de la ética, pudiendo, en este sentido, en ciertas ocasiones, adentrarse en lo ilícito. Es, en este momento, cuando debe intervenir el Derecho. La actualidad supera a la normatividad y la realidad, si no siempre supera a la ficción, en muchas ocasiones, llega a confundirse con la misma. Nos encontramos ante el momento de la reflexión de lo que merece la pena buscar. Probablemente, hablar de las perspectivas futuras de la IA sea algo en vano –condenado al fracaso–. En este sentido, se trata de un modelo de prospección que, en el momento de su proposición, estaría obsoleto.
La regulación de la IA debe equilibrar la necesidad de promover la innovación y el crecimiento económico con la necesidad de proteger ciertos derechos y garantizar la seguridad y el bienestar público. Las soluciones legales deben ser flexibles para abordar los desafíos en constante evolución que plantea la IA.
Un instrumento que podría complementar –que no sustituir–, de manera efectiva, la normativa que, en este sentido, se apruebe, es la autorregulación de la industria. Esta última se refiere a la capacidad de los desarrolladores y usuarios de la IA para establecer normas éticas y buenas prácticas que rigen su uso y desarrollo. Las regulaciones existentes pueden no ser suficientes para abordar todos los problemas que surgen de la IA. Además, la rápida evolución de la tecnología puede determinar que las leyes existentes sean obsoletas en un corto espacio de tiempo. La autorregulación en la IA también tiene sus limitaciones. En este sentido, los desarrolladores y usuarios de la IA pueden no estar motivados para observar las normas éticas voluntarias si no existen incentivos adecuados.