Inteligencia artificial y comprobación tributaria: transparencia y no discriminación
La presente monografía tiene por objeto analizar los riesgos derivados de la utilización de la inteligencia artificial por la Administración tributaria, sobre todo con fines comprobatorios. Resulta innegable que la inteligencia artificial puede potenciar la lucha contra el fraude fiscal y, en este sentido, la selección de contribuyentes a efectos comprobatorios se erige en uno de los máximos exponentes de esa funcionalidad. Esta tecnología permite a la Administración tributaria elaborar perfiles de contribuyentes y clasificarlos en función de su índice de riesgo de incumplimiento para, de este modo, optimizar la apertura y tramitación de los oportunos procedimientos tributarios de comprobación o inspección. Ahora bien, esta utilización de la inteligencia artificial puede generar fricciones con determinados derechos y garantías de los contribuyentes. Desde esta perspectiva, se ha buscado analizar la opacidad y los sesgos de los sistemas de inteligencia artificial, en tanto principales riesgos vinculados a su empleo por la Administración tributaria, sobre todo a efectos comprobatorios. Y ello al objeto de dilucidar cuál es el peligro real de que esa falta de transparencia o desviación en las respuestas computacionales pueda generar indefensión o discriminación para los obligados. A tales efectos, el trabajo parte de una breve aproximación a la inteligencia artificial, examinándose la base jurídica de su utilización por parte de la Administración tributaria.
Seguidamente, se trata la cuestión de la opacidad que suele anudarse a la inteligencia artificial, preguntándonos si cabría predicar una especie de derecho a conocer cómo la Administración emplea estos sistemas en su actuación y, en su caso, cuál podría ser su anclaje y contenido jurídicos. Concretamente, se examina si la Administración tributaria debería motivar cómo ha operado la inteligencia artificial a la hora de incluir a los contribuyentes en los procedimientos de comprobación o inspección. De otro lado, los sesgos algorítmicos y su posible plasmación en discriminaciones para los obligados constituyen otra de las amenazas potenciales del empleo de la inteligencia artificial por la Administración tributaria. Aquí la cuestión nuclear estribaría en determinar hasta qué punto esos sesgos abocan necesariamente en una discriminación jurídicamente relevante. En particular, se pretende analizar en qué medida la elaboración de perfiles de contribuyentes para su selección a efectos comprobatorios en virtud de estas técnicas conlleva, o no, una probabilidad superior de que aquellos sufran alguna clase de discriminación jurídica. Finalmente, se examina en profundidad la propuesta de Reglamento sobre inteligencia artificial realizada por la Comisión, la cual trata de ofrecer una regulación proporcionada de este fenómeno, basada en el riesgo, de modo que sólo se impongan restricciones y requisitos a aquellos sistemas de inteligencia artificial potencialmente lesivos para la seguridad y los derechos fundamentales. No obstante, hay que tener en cuenta que dicha propuesta, así como el texto transaccional acordado por el Consejo, parecen no aplicar los requisitos y garantías previstos para los sistemas de alto riesgo a los empleados por la Administración en los procedimientos tributarios.