miércoles, 24 de junio de 2020

¿Es suficiente la Ética de la Inteligencia Artificial?

Una caricatura es una representación fácil de identificar porque se centra en unas pocas características relevantes del original exageradas. A veces son rasgos físicos del rostro, del cuerpo, expresiones, incluso actitudes no verbales. Puede ser un tupé rubio peinado hacia atrás, unos labios carnosos, unos grandes ojos perfilados o una capa tipo Superman porque sus propuestas son audaces; un chiste es una caricatura.Bugs Bunny no tiene forma de conejo, no se mueve como un conejo, pero sus orejas, sus dientes y comer zanahorias bastan para identificarlo como conejo.


En cierto modo, los modelos de inteligencia artificial (IA) son caricaturas. Unos pocos rasgos de una imágen son suficientes para que un sistema de reconocimiento facial pueda identificar a una persona: los ojos, el pelo, el color de la piel, la forma de la nariz... Los modelos de IA extraen rasgos, es su forma de trabajar, y aunque se oculten datos, los algoritmos son muy buenos extrayendo correlaciones no explícitas.


El problema es que los modelos de IA son cajas negras, funcionan pero no se puede explicar porqué. No sabemos qué rasgos se extraen de los datos durante el entrenamiento, lo que sí sabemos es que amplifican los sesgos, implícitos o explícitos, como en una caricatura. Un reciente artículo de Google AI recoge que los sesgos humanos se agregan al modelo en todas las etapas: con los datos, durante la recogida de datos, el entrenamiento, el despliegue… Por mucho que se intente, es imposible evitar los sesgos, sobre todo porque es lo que utiliza la IA para crear sistemas de identificación o clasificación.


La IA no es inteligente, solo es una caricatura de la inteligencia, su funcionamiento es completamente distinto del proceso mental humano, es una simulación. No es capaz de manejar conceptos ni analogías, que son la base de los pensamientos. No es capaz de manejar la causalidad, de razonar sobre las causas o sobre las consecuencias, no puede dar explicaciones de las predicciones concretas. Los modelos de IA pueden llegar a tener una precisión muy grande, incluso pueden superar la precisión de humanos expertos en la materia, pero nadie puede garantizar qué es lo que ha aprendido de los datos suministrados. Además, la IA no es responsable de sus predicciones. Podemos asegurar que la IA es artificial, pero no inteligente.


La IA se ha aplicado multitud de campos: detección de fallos de producción, recolección robótica en agricultura, diagnosis de enfermedades, detección anticipada de terremotos… La lista es enorme. La gran precisión alcanzada y la aplicabilidad a tantos campos da un halo de encanto a la IA, como si pudiera resolver cualquier problema y como si ya que es tan precisa, no es tan importante dar explicaciones.


Cuando se aplica a problemas relacionados con personas, resultados que afectan a personas, las deficiencias de la IA se agudizan y alguien debe responsabilizarse y dar explicaciones: la concesión de un un préstamo o una resolución judicial (ya se usa en China y se está estudiando en otros países como Estonia). La detección de emociones a partir de imágenes faciales, es altamente cuestionable, ya que el contexto es determinante y en IA se utiliza poco el contexto. Finalmente las cámaras que llenan nuestras calles y edificios, junto al reconocimiento facial usando IA nos sitúa en un estado de vigilancia indiscriminada que es un ataque grave a la privacidad y que ya ha sido prohibida en varias ciudades y países.


La aplicación de la IA a predicciones sobre personas suscita serias preocupaciones. Hacerlo así causa perjuicios a las personas, reduce las garantías jurídicas y daña a la sociedad. Robert Wiener, fallecido en 1964, advertía de estos problemas, pero hay mucha presión de los gigantes tecnológicos para imponer sus productos, para que renunciemos a nuestra privacidad, para justificar usos de la tecnología de los que la tecnología no es capaz de dar razón.


La ética de la IA pretende resolver este problema compensando sesgos, mejorando la privacidad o imponiendo criterios de equidad, pero salvo en cuestiones muy técnicas, la mayoría de las predicciones son juicios que exigen una explicación e implican responsabilidad, ninguna de las cuales funcionan suficientemente bien con la IA ni lo harán en un futuro próximo. Hay serias limitaciones a lo que podría llamarse control de calidad de los sesgos algorítmicos. En cuanto a la equidad, es muy limitada, una equidad procedural, opuesta a un enfoque más sustantivo de la equidad que incluiría los resultados y su impacto social a fin de hacer los algoritmos más justos.


Estoy a favor de la IA porque es un gran avance y está permitiendo encontrar soluciones inimaginables hace menos de 10 años, pero la IA no debe convertirse en la palabra mágica que permite subvertir la sociedad. La IA ya está detrás de muchas tareas sin que lo sepamos. Hoy no seríamos capaces de vivir sin internet, el móvil o ver series en la tableta. Es necesario poner barreras, incluso legales, antes de que llegue a ser un problema y ya no se pueda desconectar. 


Aniceto Pérez y Madrid es Especialista en Ética de la IA

No hay comentarios:

Publicar un comentario

Qué explicar cuando explicar es difícil

  https://graphite.page/explainable-ai-report/#read-full-article La explicación de cómo los sistemas de toma de decisiones automatizada (ADM...