jueves, 2 de julio de 2020

Inteligencia Artificial y Sociedad: un debate para contrarrestar la desinformación

El control de la expansión de una infección contagiosa tradicionalmente se ha realizado con grupos de trabajo para trazar los contactos. Para salir de la pandemia del coronavirus, Corea del Sur desarrolló una app para automatizar el trazado mediante el uso de smartphones. Hacia el mes de Marzo, conforme se iba extendiendo la infección, en muchos países se estudió la creación de apps, como si fuera la única solución  eficaz. Sin embargo, en Mayo The Guardian publicaba un artículo titulado Cómo la app del Coronavirus ha pasado de vital a irrelevante 1; en Junio WIRED publicaba que los responsables de salud rechazaban esas apps porque el trazado es una labor médica que incluye establecer lazos con las personas, insustituible por un software 2.


Se nos presenta la Inteligencia Artificial (en adelante IA) como una oportunidad de progresar, de mejorar la calidad de vida, de reducir las injusticias sociales, de aumentar la productividad. Los Vehículos Autónomos, por ejemplo, nos liberarán de las incomodidades de conducir y los diagnósticos médicos automatizados serán objetivos, precisos y rápidos. La realidad es que los más pequeños avances requieren fuertes inversiones económicas y muchas de esas mejoras son efectistas. No resuelven el problema subyacente, que la IA actual es incapaz de realizar analogías, los ladrillos invisibles en que se basa el conocimiento. Esto hace extremadamente costoso su entrenamiento e impredecible su comportamiento. Algunos modelos que han logrado excelentes resultados en laboratorio han fallado estrepitosamente en la vida real. 


Consideremos el cambio que ha supuesto la transformación del transporte hasta llegar al modelo actual. El cambio no ha sido consecuencia únicamente de la invención del automóvil. Ha sido necesario construir carreteras así como desplegar estaciones de servicio y aprobar reglamentos de circulación entre otras cuestiones. La revolución automovilística ha requerido un cambio que ha afectado a toda la sociedad. 


La IA que conocemos es eficaz porque se aplica a problemas muy delimitados y a comportamientos habituales. Durante la pandemia del coronavirus los hábitos han cambiado, y esto ha afectado, por ejemplo, a los resultados de los algoritmos para detección de fraude 3, de predicción de stocks o de recomendación a inversores. Una vez más ha quedado al descubierto la fragilidad de los modelos inteligentes.


Las grandes compañías tecnológicas impulsan la idea de que la tecnología mejorará las condiciones de vida mediante dispositivos que interactúan con nosotros de forma personal. Aunque los modelos inteligentes operan a escala, velocidad y a veces con una precisión sobrehumana, carecen de ética y de originalidad, de sentido común. Las personas olvidamos, cambiamos de opinión por motivos a veces desconocidos, somos capaces de pensar y de pensar sobre lo que estamos pensando; podemos emitir juicios morales. La IA actual no es capaz de autorreflexión y por tanto es incapaz de cualquier responsabilidad moral o ética. La idea de una IA “ética” como un mecanismo que pueda tomar decisiones justas de forma autónoma y transparente, es una quimera; muchos expertos coinciden en que la IA de por sí agrava y perpetúa los sesgos y desigualdades.


Las tiempos de crisis son el escenario ideal para presentar la tecnología como una solución rápida y segura de los problemas. Las apps de trazado de contactos propuestas para resolver la desescalada no solo son ineficaces para esa función, sino que además  representan una amenaza a la privacidad 4. Los problemas sociales no se resuelven únicamente con soluciones técnicas 5. A veces las presiones que reciben los gobiernos les impulsan a dejar las soluciones en manos de los técnicos, decisión que habitualmente empeora las cosas.


Utilizando IA es posible crear o alterar noticias con una perfección tal que su veracidad resulta difícil de verificar 6; ni siquiera la IA nos puede proteger 7. Esto crea desinformación y por tanto es un dato más para cuestionar las grandes esperanzas que algunos ponen en la IA. Existen redes organizadas que se aprovechan de la rapidez de las redes y de la falta de contraste de los usuarios para difundirla. La pandemia ha sido una oportunidad para divulgar falsedades sobre rumores y teorías conspirativas 8.


Otro problema de las tecnologías de la información es el dominio del mercado por unas pocas compañías. Microsoft, Apple e IBM han conseguido hacer dependientes a los usuarios mediante sus sistemas propios, cerrados y de pago creando cierto servilismo de los usuarios que se ven forzados a adoptar sus sistemas para poder compartir la información. Esta práctica limita la competencia y deja desprotegidos a los usuarios.


Con el desarrollo de internet, Amazon y Google han encontrado una forma muy rentable de explotar la información. Recopilan los datos de los usuarios, de forma ordinariamente poco clara, a fin de extraer patrones de comportamiento, proporcionar contenidos personalizados y así aumentar deliberadamente el tiempo de conexión. Como la información suministrada incluye anuncios personalizados, el resultado son ingresos publicitarios sin coste apreciable; un enorme flujo monetario que les permite realizar inversiones tales que resulta inviable económicamente que otra empresa pueda entrar en ese mercado, lo que ha desembocado en oligopolios.


El poder de esta compañías es tal que, por ejemplo, Microsoft, sin ser un Estado, tiene representación en la Organización para las Naciones Unidas 9, Amazon, sin tener personalidad en el debate legislativo, está elaborando una propuesta para impedir que en Portland se apruebe la prohibición del reconocimiento facial en lugares públicos 10; también, Sidewalk Labs, subsidiaria de Google, ha negociado con el Ayuntamiento de Toronto la creación de un desarrollo urbanístico inteligente en el paseo marítimo 11. Toronto cede la construcción, automatización y operación de esa smart city a cambio de entregar los datos generados (movimientos, consumos, emisiones, imágenes, etc.) en Sidewalk, sin el consentimiento ni la participación ciudadana. 


Cualquier tecnología, una vez incorporada a los hábitos, se vuelve invisible, imposible de controlar. Así, se baja la guardia de forma inconsciente respecto a Internet mientras nuestros datos son recopilados, sin tener en cuenta que los algoritmos no olvidan. De ahí que la desprotección de las personas ante las grandes corporaciones que desarrollan la IA exija una regulación más precisa y garantista ante este tipo de tecnologías.


El Libro Blanco de la Unión Europea de la IA presenta la adopción de esta tecnología como un objetivo en sí, independiente; pero no tiene valor en sí misma, la IA no es la solución correcta en todos los casos 12. Asegura esta propuesta que el ingente volumen de datos generados abrirá nuevas oportunidades a Europa. La realidad es que muchas veces la manipulación de los datos de los consumidores simplemente genera ingresos publicitarios para las empresas intermediarias de publicidad, en general propiedad de grandes compañías tecnológicas; esto tiene poco valor añadido para los anunciantes, los editores y los consumidores 13. Sin una regulación adecuada, los ciudadanos quedan en desventaja, no sólo en cuanto a potencia tecnológica y a la propiedad de los datos, sino en el desplazamiento del poder de influencia en la sociedad, de las instituciones políticas y civiles a las grandes compañías tecnológicas.


Existen importantes amenazas en el uso de la IA que sería imposible desarrollar en este artículo. Cuestiones como la privacidad, discriminación, equidad, transparencia, el impacto laboral o social, la responsabilidad de las consecuencias, la dependencia tecnológica o la monetización de los datos personales. 


En los proyectos de IA muchas veces hay una brecha entre quienes resuelven los problemas y a quienes se va a aplicar las  soluciones 14. Es muy necesario abrir debates sobre las implicaciones, exigencias, regulación y rendimiento de cuentas en relación a la IA para incorporar a los ciudadanos -con frecuencia marginados en estas cuestiones- e instituciones civiles. En 2019 y 2020 se han abierto algunos procesos de consulta pública sobre propuestas, como el citado Libro Blanco, la Estrategia de IA de Escocia o el plan de Australia para incorporar la IA en el sector público. Contar con opiniones de origen más diverso nos permitirá avanzar hacia una sociedad más justa. 


Los poderes públicos deben estar adecuadamente informados y ser conocedores de las preocupaciones éticas y limitaciones técnicas de la IA para poder deliberar con conocimiento. Las normas de regulación de la IA tendrán efecto a largo plazo, por esto su discusión y adopción deben ser muy meditadas y consensuadas.


Una regulación insuficientemente debatida puede afectar a nuestros derechos como ciudadanos o como consumidores y por un tiempo indeterminado. La Inteligencia Artificial, un recurso interactivo, autónomo y con capacidad de aprender, va a influir mucho más que cualquier otro avance de la historia en la humanidad. Es importante crear una gobernanza consensuada y asequible a los ciudadanos. 


La crisis global de la pandemia del coronavirus ha normalizado la posibilidad de participar en multitud de foros y eventos online. Aprovechemos este avance social positivo para aumentar de forma sostenida la participación de los expertos 15 y de los ciudadanos en general en cómo queremos que se transforme la sociedad y plantar cara a la desinformación que distrae de las cuestiones realmente importantes.


Por Aniceto Pérez y Madrid, Especialista en Ética de la Inteligencia Artificial


Referencias

[1] Josh Taylor, How did the Covidsafe app go from being vital to almost irrelevant?, 23 Mayo 2020 https://amp.theguardian.com/world/2020/may/24/how-did-the-covidsafe-app-go-from-being-vital-to-almost-irrelevant


[2] Fred Vogelstein, Health Officials Say 'No Thanks' to Contact-Tracing Tech, 8 Mayo, 2020, https://www.wired.com/story/health-officials-no-thanks-contact-tracing-tech/


[3] Will Douglas Heaven, Our weird behavior during the pandemic is messing with AI models, 11 Mayo 2020, 

https://www.technologyreview.com/2020/05/11/1001563/covid-pandemic-broken-ai-machine-learning-amazon-retail-fraud-humans-in-the-loop/


[4] Elizabeth Farries, Covid-tracing app may be ineffective and invasive of privacy, 5 Mayo 2020, https://www.irishtimes.com/opinion/covid-tracing-app-may-be-ineffective-and-invasive-of-privacy-1.4244638


[5] Reema Patel, Why we cannot afford to leave technology to the experts – the case for public engagement at times of crisis, 13 Mayo 2020, https://www.adalovelaceinstitute.org/why-we-cannot-afford-to-leave-technology-to-the-experts-the-case-for-public-engagement-at-times-of-crisis/


[6] Robert Chesney, Danielle Citron, Hany Farid, All’s Clear for Deepfakes: Think Again, 11 Mayo, 2020, https://www.lawfareblog.com/alls-clear-deepfakes-think-again


[7] Zoe Schiffer, AI can’t protect us from the deep fakes, argues new report, 18 Septiembre 2019, https://www.theverge.com/2019/9/18/20872084/ai-deepfakes-solution-report-data-society-video-altered


[8] Phillip N. Howard, Bending The Fake Pandemic News Curve, 9 Junio 2020, https://theaseanpost.com/article/bending-fake-pandemic-news-curve


[9] Raquel Jorge Ricart, Empresas tecnológicas y Estados: ¿policy o política?, 20 Marzo 2020, 

https://blog.realinstitutoelcano.org/empresas-tecnologicas-y-estados-policy-o-politica/


[10] Kate Kaye, Amazon Is Quietly Fighting Against a Sweeping Facial Recognition Ban in Portland, 14 Mayo 2020, https://onezero.medium.com/amazons-quietly-fighting-against-a-groundbreaking-facial-recognition-ban-in-portland-f0d1e3c2054


[11] Moira Warburton, Alphabet still facing questions over data use in its Toronto smart city project proposal, 27 Febrero 2020,   https://www.reuters.com/article/us-alphabet-sidewalk-idUSKCN20L042


[12] Fanny Hidvegi y Daniel Leufer, Trust and excellence — the EU is missing the mark again on AI and human rights

, 11 Junio 2020, https://www.accessnow.org/trust-and-excellence-the-eu-is-missing-the-mark-again-on-ai-and-human-rights/


[13] Mireille Hildebrandt, Comments on White Paper on AI (EC), Mayo 2020, https://lsts.research.vub.be/sites/default/files/atoms/files/Hildebrandt%20EC%20White%20Paper%20on%20AI.pdf


[14] Salena Prakah-Asante, If AI is biased, how should we use it?, 16 May 2020, 

https://harvardtechnologyreview.com/2020/05/16/ai-bias-use/


[15] Carme Torras, Ciencia-ficción: un espejo para el futuro de la humanidad, 5 Mayo 2020,

 https://revistaidees.cat/es/la-ciencia-ficcion-y-el-debate-entre-etica-e-inteligencia-artificial/


No hay comentarios:

Publicar un comentario

Qué explicar cuando explicar es difícil

  https://graphite.page/explainable-ai-report/#read-full-article La explicación de cómo los sistemas de toma de decisiones automatizada (ADM...