miércoles, 24 de junio de 2020

Google quiere que se regule la Inteligencia Artificial…a su manera


El 20 de Enero de 2020 el CEO de Google, Sundai Pichar, pronunció el discurso introductorio en la sesión “IA en Europa: una charla con el CEO de Google”. Pichai habló sobre el desarrollo e impacto de una Inteligencia Artificial responsable y los riesgos y oportunidades que conlleva su uso.


Aunque Sundar Pichai pide nuevas regulaciones en el mundo de la Inteligencia Artificial, también pide que sean suaves. Asegura que hay que poner nuevas reglas para los vehículos autónomos, pero no las haya en su aplicación en salud. 


Ninguna de las dos peticiones es de extrañar. Recientemente Magna, el partner de Lyft para el desarrollo de vehículos autónomos, ha desistido de luchar por lograr el nivel 5 de autonomía, o lo que es lo mismo la conducción autónoma completa. Durante el último trimestre de 2019 otros fabricantes han recortado o cancelado sus inversiones en vehículos autónomos. ¿La razón? La conducción autónoma es imposible con la tecnología actual.


También hay motivos para que Google quiera una regulación débil en aplicaciones de salud: en noviembre de 2019 se conoció que Google había recolectado millones de datos de salud de pacientes norteamericanos sin su consentimiento mediante una cadena de más de 2.600 hospitales. Y el 17 de Enero de 2020 la CNBC publicaba que Epic, un proveedor de registros médicos, dejaba de trabajar con Google Cloud. Epic almacenaba sus datos en la nube de Google y se ha filtrado que algunos empleados de Google accedieron a los datos de uno de los clientes de Epic. The Wall Street Journal recientemente informaba de que Cerner, otro cliente de Google Cloud, también ha rescindido su contrato de alojamiento de datos médicos con Google por motivos similares.


La Inteligencia Artificial permite recolectar datos, crear perfiles e influir en las redes sociales.

El escándalo de Cambridge Analytica de Marzo de 2018 no ha terminado. A principios de enero de 2020 se han publicado más de 100.000 documentos de Cambridge Analytica sobre sus actividades de manipulación global. Había accedido sin permiso a 87 millones de perfiles de Facebook y había datos sobre procesos electorales de varios países.


Estas palabras de Mark Weiser en 1991 son reveladoras: “Las tecnologías más profundas son las que desaparecen. Se entretejen en el tejido de la vida cotidiana hasta que no se pueden distinguir de ella”. La IA es una tecnología que gestiona a diario nuestros datos y nomos conscientes. Parece evidente que una regulación seria es más que necesaria.


Aniceto Pérez y Madrid es Especialista en Ética de la Inteligencia Artificial


¿Es suficiente la Ética de la Inteligencia Artificial?

Una caricatura es una representación fácil de identificar porque se centra en unas pocas características relevantes del original exageradas. A veces son rasgos físicos del rostro, del cuerpo, expresiones, incluso actitudes no verbales. Puede ser un tupé rubio peinado hacia atrás, unos labios carnosos, unos grandes ojos perfilados o una capa tipo Superman porque sus propuestas son audaces; un chiste es una caricatura.Bugs Bunny no tiene forma de conejo, no se mueve como un conejo, pero sus orejas, sus dientes y comer zanahorias bastan para identificarlo como conejo.


En cierto modo, los modelos de inteligencia artificial (IA) son caricaturas. Unos pocos rasgos de una imágen son suficientes para que un sistema de reconocimiento facial pueda identificar a una persona: los ojos, el pelo, el color de la piel, la forma de la nariz... Los modelos de IA extraen rasgos, es su forma de trabajar, y aunque se oculten datos, los algoritmos son muy buenos extrayendo correlaciones no explícitas.


El problema es que los modelos de IA son cajas negras, funcionan pero no se puede explicar porqué. No sabemos qué rasgos se extraen de los datos durante el entrenamiento, lo que sí sabemos es que amplifican los sesgos, implícitos o explícitos, como en una caricatura. Un reciente artículo de Google AI recoge que los sesgos humanos se agregan al modelo en todas las etapas: con los datos, durante la recogida de datos, el entrenamiento, el despliegue… Por mucho que se intente, es imposible evitar los sesgos, sobre todo porque es lo que utiliza la IA para crear sistemas de identificación o clasificación.


La IA no es inteligente, solo es una caricatura de la inteligencia, su funcionamiento es completamente distinto del proceso mental humano, es una simulación. No es capaz de manejar conceptos ni analogías, que son la base de los pensamientos. No es capaz de manejar la causalidad, de razonar sobre las causas o sobre las consecuencias, no puede dar explicaciones de las predicciones concretas. Los modelos de IA pueden llegar a tener una precisión muy grande, incluso pueden superar la precisión de humanos expertos en la materia, pero nadie puede garantizar qué es lo que ha aprendido de los datos suministrados. Además, la IA no es responsable de sus predicciones. Podemos asegurar que la IA es artificial, pero no inteligente.


La IA se ha aplicado multitud de campos: detección de fallos de producción, recolección robótica en agricultura, diagnosis de enfermedades, detección anticipada de terremotos… La lista es enorme. La gran precisión alcanzada y la aplicabilidad a tantos campos da un halo de encanto a la IA, como si pudiera resolver cualquier problema y como si ya que es tan precisa, no es tan importante dar explicaciones.


Cuando se aplica a problemas relacionados con personas, resultados que afectan a personas, las deficiencias de la IA se agudizan y alguien debe responsabilizarse y dar explicaciones: la concesión de un un préstamo o una resolución judicial (ya se usa en China y se está estudiando en otros países como Estonia). La detección de emociones a partir de imágenes faciales, es altamente cuestionable, ya que el contexto es determinante y en IA se utiliza poco el contexto. Finalmente las cámaras que llenan nuestras calles y edificios, junto al reconocimiento facial usando IA nos sitúa en un estado de vigilancia indiscriminada que es un ataque grave a la privacidad y que ya ha sido prohibida en varias ciudades y países.


La aplicación de la IA a predicciones sobre personas suscita serias preocupaciones. Hacerlo así causa perjuicios a las personas, reduce las garantías jurídicas y daña a la sociedad. Robert Wiener, fallecido en 1964, advertía de estos problemas, pero hay mucha presión de los gigantes tecnológicos para imponer sus productos, para que renunciemos a nuestra privacidad, para justificar usos de la tecnología de los que la tecnología no es capaz de dar razón.


La ética de la IA pretende resolver este problema compensando sesgos, mejorando la privacidad o imponiendo criterios de equidad, pero salvo en cuestiones muy técnicas, la mayoría de las predicciones son juicios que exigen una explicación e implican responsabilidad, ninguna de las cuales funcionan suficientemente bien con la IA ni lo harán en un futuro próximo. Hay serias limitaciones a lo que podría llamarse control de calidad de los sesgos algorítmicos. En cuanto a la equidad, es muy limitada, una equidad procedural, opuesta a un enfoque más sustantivo de la equidad que incluiría los resultados y su impacto social a fin de hacer los algoritmos más justos.


Estoy a favor de la IA porque es un gran avance y está permitiendo encontrar soluciones inimaginables hace menos de 10 años, pero la IA no debe convertirse en la palabra mágica que permite subvertir la sociedad. La IA ya está detrás de muchas tareas sin que lo sepamos. Hoy no seríamos capaces de vivir sin internet, el móvil o ver series en la tableta. Es necesario poner barreras, incluso legales, antes de que llegue a ser un problema y ya no se pueda desconectar. 


Aniceto Pérez y Madrid es Especialista en Ética de la IA

Qué explicar cuando explicar es difícil

  https://graphite.page/explainable-ai-report/#read-full-article La explicación de cómo los sistemas de toma de decisiones automatizada (ADM...