Hace un tiempo hablamos de Future of Life, una asociación cuya misión es lograr que haya un desarrollo responsable de la inteligencia artificial, mostrando su preocupación por el camino que su investigación pueda tomar. En su momento ya publicaron una carta abierta de recomendaciones y ahora han establecido 23 principios a seguir en el desarrollo de inteligencia artificial para ir por el buen camino.
Entre sus miembros siguen estando como personajes destacados dentro del mundo de la tecnología y la ciencia Elon Musk y Stephen Hawking, cuyos nombres figuran al final de esta declaración junto a los otros muchos ingenieros y demás expertos en el sector. Aunque de nuevo se trata de una comunicación que establece este comité y esto no es representativo de las comunidades científica y de ingeniería en su totalidad.
El debate sobre el futuro a lo Terminator
¿Qué es lo que indican estos principios de actuación? A grades rasgos son instrucciones básicas como el que cualquier desarrollo ha de ser compatible con la diversidad cultural y otros valores humanos (principio 11), así como establecer que se deberá evitar entrar en una competición de armas letales basadas en AI (principio 18). La lista total se divide en tres apartados: "Asuntos de investigación", "Ética y valores" y "Asuntos a largo plazo".
La declaración es otra de las comunicaciones de Future of Life que, si bien se trata de una asociación que cuenta con pesos pesados en la ciencia y en la tecnología, surge de un debate entre parte de sus miembros (un 90% aproximadamente) y como decíamos no es algo oficial o global. De hecho en la propia web asumen que parte de los mismos están sujetos a distintas interpretaciones.
¿Son entonces necesarios? Evidentemente para esta asociación sí serán de mucha utilidad para los presentes y futuros desarrollos, y otros personajes importantes también han mostrado anteriormente preocupación sobre hasta dónde puede llegar el desarrollo de IA, como declaró Bill Gates a principios de 2015.
Estoy en el campo que está preocupado por las súper inteligencias. Primero, las máquinas harán muchos trabajos por nosotros y no serán súper inteligentes. Eso debería ser positivo si lo manejamos bien. Sin embargo, unas décadas después, las inteligencias serán suficientemente fuertes para convertirse en una preocupación. Estoy de acuerdo con Elon Musk y con otros en esto y no entiendo por qué algunas personas no están preocupadas.
No obstante, ya vimos que no todos los expertos opinan igual y que hay voces en contra de la creencia de que en el futuro las AI acaben siendo una amenaza para la vida humana. Era el caso de Eric Horvitz, científico responsable del área de investigación en la propia Microsoft, que se mostraba seguro en cuanto a que los sistemas que se desarrollarán estarán controlados incluso en situaciones imprevistas, como declaraba en una entrevista.
Ha habido preocupación en cuanto a que a largo plazo perderemos el control de ciertos tipos de inteligencias. Básicamente no creo que vaya a pasar.
Otros expertos como Guru Banavar (jefe de investigación de IBM) o el profesor Geoffrey Hinton (el que se considera uno de los promotores del deep learning) también se mostraban con una visión más confiada y optimista alejándose de las ideas de "un futuro a lo Terminator", como dijeron en BBC. John Underkoffler, CEO de Oblong Industries, y Charles Ortiz, jefe de AI e investigador senior de reconocimiento de voz Nuance, también mostraban opiniones similares a éstos en Venture Beat añadiendo, en el caso de Underkoffler, que aún estábamos algo lejos de la verdadera realidad artificial.
Más recientemente también vimos que desde la Universidad de Stanford iniciaban una serie de estudios sobre el futuro de la inteligencia artificial, 'One Hundred Year Study on Artificial Intelligence', publicando el primero y lanzando con él un mensaje según ellos más realista y que nos alejaba de la idea de unos sistemas con AI capaces de poner en peligro nuestros sistemas o incluso nuestra especie.
Imagen | Cinemanía
En Xataka | Aprende sobre Inteligencia Artificial por internet: cursos, publicaciones y las recomendaciones de expertos
También te recomendamos
Por qué comprar una moto puede ser la mejor medida de ahorro para la economía doméstica
TCEC: el otro campeonato del mundo de ajedrez que ningún humano podría ganar
-
La noticia Lo nuevo de Elon Musk y los de Future of Life: 23 principios para que la inteligencia artificial no se nos vuelva en contra fue publicada originalmente en Xataka por Anna Martí .
Gracias a Anna Martí
No hay comentarios.:
Publicar un comentario