Lograr que la inteligencia artificial sirva al bien común y no solo a unos pocos. Es el propósito de la ingeniera de telecomunicaciones Nuria Oliver, directora de Investigación en Ciencia de Datos en Vodafone, asesora científica jefe en el Instituto Vodafone y miembro de la iniciativa humanitaria Data-Pop Alliance. Se doctoró en el MIT Media Lab bajo las directrices de uno de sus fundadores, Alex 'Sandy' Pentland; trabajó como investigadora científica en Microsoft Research, fue la primera directora científica de Telefónica I+D y lleva más de 20 años investigando en las áreas de modelado y predicción del comportamiento humano y en la interacción entre personas y máquinas.
"Descubrí la IA cuando estaba estudiando 'teleco' en Madrid. Mi proyecto de fin de carrera era un sistema de visión artificial para hacer reconocimiento automático de las matrículas de los coches en autopistas. Descubrí entonces que podía escribir un programa de ordenador que fuera inteligente, y eso me abrió los ojos al potencial que tenía la tecnología para ayudarnos. Fue amor a primera vista", cuenta Oliver a XATAKA en una entrevista durante el seminario HUMAINT sobre el impacto de la IA organizado por el Centro Común de Investigación (JRC-CAS) de la Comisión Europea.
Desde entonces, Oliver ha acumulado 40 patentes, miles de referencias a sus estudios y numerosos premios y reconocimientos. Es miembro de la Real Academia Española de Ingeniería (RAI) y también de su versión europea (Euro-CASE), miembro del IEEE (Instituto de Ingeniería Eléctrica y Electrónica de EE.UU.), de la ACM (Asociación para la Maquinaria Informática de EE.UU.) y de la Asociación Europea de Inteligencia Artificial. También asesora al Gobierno de España y a la Comisión Europea en inteligencia artificial y big data, y al Foro Económico Mundial en su Consejo dedicado a Nuevas Métricas. Todo ello desde Alicante, la ciudad donde reside y de cuya universidad Miguel Hernández es doctora Honoris Causa.
Oliver no solo ha sido testigo sino también partícipe del progreso tecnológico, de la presencia "cada vez más relevante y ubicua de la tecnología en nuestras vidas" y de la "codependencia que hemos desarrollado con la misma". Así lo cuenta en su discurso de toma de posesión en la RAI. Su foco siempre ha estado en desarrollar sistemas con una clara aplicación social. " Tecnología por y para la sociedad ; tecnología que nos entiende como paso previo para poder ayudarnos", dice.
Dos problemas
La científica asegura estar muy preocupada por el impacto de la inteligencia artificial: "Es uno de los avances clave en la Cuarta Revolución Industrial, dada su transversalidad, invisibilidad [no nos damos cuenta de que está ahí], complejidad, escalabilidad y actualización constante, y dada su habilidad para predecir futuro. Para hacer todo ello, estos sistemas necesitan grandes cantidades de datos y de computación. El problema es que este acceso es asimétrico: solo una minoría puede obtenerlo. El resto, como apunta Oliver, somos meros usuarios. "Deberíamos minimizar esta asimetría para garantizar que el impacto de la IA sea positivo para todos, no solo para unos pocos", añade.
La experta también reconoce estar "muy preocupada" por el desconocimiento general acerca de las posibilidades y riesgos de la IA entre la población. "Todos y todas, como ciudadanos y ciudadanas del mundo, deberíamos tener el derecho de decidir hacia dónde queremos ir como especie y cómo queremos usar los avances tecnológicos que estamos desarrollando. El primer paso para eso es conocer de qué estamos hablando y, desgraciadamente, la brecha entre el estado de desarrollo tecnológico y el conocimiento del ciudadano medio es inmensa", afirma
Oliver cree que los medios de comunicación juegan un papel fundamental en ello, como herramienta de divulgación y de formación de pensamiento crítica:"Va a ser imposible que, como sociedad, decidamos cómo queremos usar la tecnología si no sabemos de qué estamos hablando y si la imagen que tenemos es en la mayoría de los casos sensacionalista". Por eso insiste en la importancia de actuar en la educación en tres niveles: la educación obligatoria, "que está totalmente desvinculada del S.XXI"; la educación a profesionales para afrontar "la profunda transformación del sistema laboral", y la educación a la ciudadanía y a los decisores políticos.
La científica incide en que todos tenemos responsabilidad, a nivel individual y colectivo: "Si no hacemos nada, la situación no va a cambiar, no se va a corregir por sí sola. Las empresas que se están enriqueciendo masivamente no van a querer cambiar el statu quo. Su objetivo es maximizar el retorno de la inversión de sus accionistas e inversores, a menudo a partir de investigaciones que se han financiado con fondos públicos".
Tres retos
Como consecuencia de lo anterior, Oliver sostiene que el impacto de la IA no está (ni estará, de seguir así) necesariamente distribuido de manera homogénea o justa en la sociedad. "Debemos abordar con urgencia –dice- los retos de los sistemas existentes para asegurarnos de que las oportunidades efectivamente tienen impacto social positivo". Esos retosson fundamentalmente tres, según la investigadora: laboral, económica y social.
En el ámbito laboral, señala que la IA está polarizando mercado trabajo , no ya por la destrucción de empleo sino porque la automatización de tareas hace que se requiera otro tipo de competencias. "La demanda laboral está experimentando un sesgo en beneficio de habilidades profesionales especializadas y en perjuicio de habilidades u ocupaciones rutinarias y mecánicas. Esta tendencia pronostica un cambio completo en la estructura ocupacional que probablemente conlleve riesgos para la sociedad si no somos capaces de adaptarnos y de transformar nuestros programas educativos", sostiene. Fomentar vocaciones tecnológicas entre las nuevas generaciones es otro de sus reclamos, especialmente entre las mujeres, que pueden quedar laboralmente excluidas si no se forman en estos campos.
Para Oliver, es "de vital importancia" que se invierta en la formación de profesionales cuyo trabajo vaya a verse afectado por el desarrollo de la IA, de manera que puedan seguir siendo relevantes y aportando a la sociedad. "Estamos progresando hacia un modelo de aprendizaje continuo y a la desaparición de una única carrera profesional durante la vida laboral de una persona", afirma.
En el ámbito económico, la IA tendrá un impacto desigual. " Un estudio de PwC estima que la IA podría hacer crecer el PIB global hasta un 14% (más de 15 billones de dólares) para el año 2030, con impacto en todos los ámbitos de actividad, tanto en el sector público como en el privado", comenta Oliver. También cita otro estudio que analiza la distribución de start-ups de IA a nivel mundial y sitúa a EE.UU. como líder mundial -con un 40% del total analizado- seguido por China e Israel.
En el caso de España, la predicción es de un crecimiento adicional del PIB en un 0,8% para el año 2035. La científica destaca las oportunidades que existen en el ámbito de la salud, el transporte, la energía, la agricultura, el turismo, el comercio electrónico, la banca y el sector público. Estas no se materializarán -apunta- si no se invierte "mucho más" en IA para conseguir su adopción en empresas y administraciones públicas; para atraer y retener talento y actualizar el sistema educativo; para fomentar la creatividad y la innovación y para reforzar la excelencia científica. "Tenemos la oportunidad de elevar no solo el crecimiento empresarial y económico sino, sobre todo, nuestra calidad de vida", asegura.
En el ámbito social, Oliver señala que el desarrollo e implantación de una IA centrada en las personas debería resultar en un empoderamiento de la sociedad. Para esto, de nuevo, el conocimiento es una condición necesaria. De ahí la importancia que le confiere a la educación formal e informal. La científica también destaca la necesidad de plantear nuevos modelos de propiedad, gestión y regulación de los datos para maximizar el impacto positivo de la IA en la sociedad, dado que la tecnología necesita de datos para poder aprender.
Esos nuevos modelos facilitarán -dice Oliver- la generación de espacios de colaboración (laboratorios urbanos o living labs) basados en la compartición de datos, tecnología y talento para contribuir al progreso de la IA y democratizar su acceso. Así se equilibrarían las desigualdades y la asimetría de información. Como ejemplo de ello pone el Mobile Territorial Lab en Trento (Italia) o el Laboratorio Urbano de Bogotá (Colombia), este segundo impulsado por la ONG Data-Pop Alliance, donde Oliver es investigadora jefe de datos.
Cinco principios
Para hacer frente a estos desafíos, la científica propone una serie de principios que garanticen un desarrollo ético de la IA. Los describe en un artículo escrito con colaboradores del MIT (incluido Alex Pentland), de la Data-Pop Alliance, de Harvard y de FBK, publicado en la revista científica Philosophy and Technology. Entre todos ellos, destaca cinco: autonomía y dignidad, justicia y solidaridad, beneficencia, no maleficencia y explicabilidad.
1. La autonomía y la dignidad como valores centrales en la ética occidental , según la cual cada persona debería tener la capacidad de decidir sus propios pensamientos y acciones, asegurando por tanto la libre elección, la libertad de pensamiento y acción. "Hoy en día podemos construir modelos computacionales de nuestros deseos, necesidades, personalidad y comportamiento con la capacidad de influir en nuestras decisiones y acciones de manera subliminal", afirma.
Por ello, la investigadora defiende que se debe garantizar que la toma de decisiones por parte de estos modelos se supedite a la autonomía y dignidad humanas. ¿Cómo? Con reglas que definan el comportamiento de dichos sistemas de acuerdo a los principios éticos aceptados en la sociedad donde sean utilizados. "No hay un método único para la incorporación de principios éticos en los procesos algorítmicos de decisión basados en datos. Lo que sí está claro es que 'No es difícil tomar decisiones cuando sabes cuáles son tus valores', como sabiamente dijo Roy O. Disney [hermano mayor de Walt Disney]".
2. La justicia y la solidaridad para evitar discriminaciones algorítmicas. Como explica Oliver, los datos utilizados para entrenar a los algoritmos pueden tener sesgos que den lugar a decisiones discriminatorias. Esto puede derivar en que se denieguen oportunidades a algunas personas por las acciones de otros con los que comparten ciertas características. La experta cita el caso de compañías financieras que –dice- han reducido el límite de crédito de sus clientes como resultado del análisis del comportamiento de otros clientes con un historial de pagos deficiente que habían comprado en los mismos establecimientos que ellos.
Oliver cree que es urgente que expertos y expertas de distintos campos (no solo tecnológicos sino también de ámbito del derecho, la economía, la ética, la informática, la filosofía y las ciencias políticas) inventen, evalúen y validen en el mundo real diferentes métricas de justicia algorítmica para diferentes tareas. También apunta la necesidad de proponer un marco de modelado teórico que ayude a los usuarios de dichos algoritmos a asegurarse de que las decisiones tomadas son lo más justas posible.
En cuanto a la solidaridad, considera que, debido a la transversalidad de la IA y a su potencial aplicación a todos los ámbitos, se debería fomentar y desarrollar un intercambio constructivo de recursos y conocimientos entre los sectores privado y público y la sociedad para conseguir el máximo potencial de aplicación y competitividad.
3. La beneficencia para garantizar la sostenibilidad, veracidad y diversidad. Por una parte, los sistemas de aprendizaje profundo requieren elevadas capacidades de computación "con costes energéticos prohibitivos", afirma Oliver. Por otra, la IA también será clave para permitirnos abordar algunos de los retos más importantes en el contexto del medio ambiente. Por ejemplo, mediante modelos energéticos más eficientes y sostenibles a partir de redes eléctricas inteligentes.
En cuanto a la veracidad, la científica se refiere a la facilidad actual para crear contenido (texto, imagen, vídeo) sintético, inventado por algoritmos, "que es indistinguible de contenido veraz". "Esta capacidad para inventar contenido está transformando la comunicación, la difusión de la información y la formación de la opinión pública. Ha derivado en la aparición de las llamadas fake news o noticias falsas, que pueden condicionar decisiones importantes –como quién debería ser el próximo presidente de un país– para favorecer determinados intereses. Otorga, por tanto, un poder sin precedentes a quienes tengan la capacidad para generar y difundir dicho contenido artificial", señala Oliver.
Con diversidad, la investigadora hace referencia a la necesidad de contar, para el diseño y desarrollo de la IA, con equipos multidisciplinares, heterogéneos y plurales. Diverso "en relación a las áreas de conocimiento y a factores demográficos, en particular de género". La principal razón para ello -asegura Oliver- es evitar resultados sesgados. Y también evitar los actuales límites para descubrir contenido diferente a nuestros propios gustos (algo que ayuda a entender otros puntos de vista y a abrir la mente) a partir de sistemas personalizados de recomendación y búsqueda como Google o como los que se dan en Spotify, Amazon o Facebook. Es lo que el activista y escritor Eli Pariser denomina 'filtros burbuja'.
4. La no maleficencia para la fiabilidad, privacidad y seguridad de la IA, y también su reproductibilidad y prudencia. Oliver y sus colaboradores proponen en su artículo que los sistemas de IA estén sujetos a controles de calidad igual que otros productos y bienes que utilizamos (alimentos, electrodomésticos, vehículos, ropa, juguetes, medicinas, maquinaria industrial…). "Quizá tendría sentido crear una autoridad a nivel europeo que certifique su calidad, seguridad y fiabilidad antes de ser comercializados o implementados", señala la investigadora. También destaca que estos sistemas deberían velar por la seguridad e integridad de las personas que los utilizan o se ven afectadas por ellos, y también por su propia seguridad frente a ciberataques.
En cuanto a protección de datos y privacidad, la experta señala que a menudo no se tiene en cuenta que los avances en los algoritmos de aprendizaje automático permiten la inferencia de información privada que nunca ha sido explícitamente revelada por las personas. "En una investigación reciente demostramos que a partir de datos no personales es posible inferir atributos de personalidad, el nivel de educación o los intereses de un individuo. Por ello, considero que determinadas características (orientación sexual, religión…) tendrían que permanecer en la esfera privada y no utilizarse o inferirse en los sistemas de IA, a no ser que la persona decida –de forma expresa- lo contrario", afirma Oliver. Y cita, de nuevo, el RGPD como esfuerzo europeo en esta línea.
En lo que se refiere a la replicabilidad, la científica afirma que, para generar confianza, los sistemas de IA deben ser replicables cuando se sometan a los mismos datos de entrada o a la misma situación y/o contexto. Con prudencia se refiere a la importancia de considerar, en las fases iniciales de diseño de cualquier sistema, las diversas alternativas y opciones existentes para maximizar su impacto positivo y minimizar los potenciales riesgos y consecuencias negativas derivadas de su aplicación.
5. Por último, el principio de la explicabilidad se como forma de transparencia para garantizar la responsabilidad y la agencia humana. La creación de sistemas de IA interpretables es fundamental para entenderlos y atribuir la responsabilidad de las consecuencias de su uso, según sostiene Oliver. "Un modelo es transparente si una persona puede observarlo y entenderlo con facilidad", afirma. "Es imprescindible –prosigue- que los sistemas de IA sean transparentes en relación a qué datos captan y analizan sobre el comportamiento humano y para qué propósitos –lo cual ya contempla el RGPD–, pero también respecto a qué situaciones los humanos están interactuando con sistemas artificiales (por ejemplo, con chatbots)".
Futuro incierto
Oliver sostiene que "solo cuando respetemos estos principios seremos capaces de avanzar y conseguir un modelo de gobernanza democrática basado en datos e IA, por y para las personas". ¿Qué es lo mejor que puede pasar si lo logramos? "Que sobrevivamos como especie. No podremos superar el cambio climático ni abordar retos como el envejecimiento o la prevalencia de enfermedades crónicas sin apoyarnos en la tecnología", afirma. Y añade que, si las estrategias no van acompañadas de compromiso político , no serán más que otro Libro Blanco, como el que se hizo para la anterior Secretaría de Estado para la Sociedad de la Información y la Agenda Digital en España.
¿Qué es lo peor que puede pasarnos si no lo logramos? "Que amplifiquemos muchos problemas que ya tenemos de asimetrías, concentración de riqueza y poder, desigualdad… y que perdamos esta grandísima oportunidad que tenemos de usar la IA para el bien", mantiene. "El avance tecnológico no es algo que nos pasa, que nos viene dado y determina nuestro futuro de forma inexorable. Al contrario, es algo que hacemos todos. Debemos dejar de ser un agente pasivo y convertirnos en agente activo".
Suena fácil decirlo pero, ¿qué herramientas tenemos como ciudadanos de a pie para hacerlo? "Exigir que los representantes políticos tengan un plan y se comprometan, mediante diferentes formas de activismo y movimientos ciudadanos, inspirando a las nuevas generaciones para crear de forma ética la tecnología del futuro. Tenemos que cambiar la percepción de que no podemos hacer nada y, al contrario, sentirnos todos empoderados como agentes de cambio para decidir juntos dónde queremos ir como especie", concluye.
También te recomendamos
Estas son todas las muertes que habrías sufrido sin tecnología
-
La noticia Llevo 20 años investigando la inteligencia artificial: esto es lo que he aprendido y estos serán sus desafíos futuros fue publicada originalmente en Xataka por Esther Paniagua .
Gracias a Esther Paniagua
No hay comentarios.:
Publicar un comentario