Los pioneros de la Inteligencia Artificial soñaban con construir complejas máquinas que tuvieran las mismas características que la inteligencia humana allá por la década de los 50.
En la actualidad, aunque aún nos sigue pareciendo lejano el hecho de programar algo tan complejo como la mente humana, estamos viviendo un avance tremendo en el uso del Machine Learning. Y desde hace unos cuantos años concretamente del Deep Learning. Ambos englobados en la Inteligencia Artificial, la cual fue ideada para hacer que las máquinas sean más listas, incluso que los humanos.
Aunque los medios sigan tratando de forma indiferente ambos términos (Machine Learning y Deep Learning) vamos a aclarar algunos conceptos en más profundidad y, sobre todo el impacto que está teniendo en los avances tecnológicos presentes y lo que está por llegar, tanto en la industria del software como en nuestra vida cotidiana.
Discutiendo entre el Machine Learning y el Deep Learning ¿A qué nos referimos con cada uno?
Sin entrar en detalles complejos sobre los diferentes paradigmas de Inteligencia Artificial y su evolución podemos dividir dos grandes grupos: la IA robusta y la IA aplicada.
-
Inteligencia Artificial robusta o Strong AI: trata sobre una inteligencia real en el que las máquinas tienen similar capacidad cognitiva que los humanos, algo que, como los expertos se aventuran a predecir, aún quedan años para alcanzar. Digamos que esta es la Inteligencia de la que soñaban los pioneros del tema con sus vetustas válvulas.
-
Inteligencia Artificial aplicada Weak AI (Narrow AI o Applied AI): aquí es donde entran el uso que hacemos a través de algoritmos y aprendizaje guiado con el Machine Learning y el Deep Learning.
El Machine Learning en su uso más básico es la práctica de usar algoritmos para parsear datos, aprender de ellos y luego ser capaces de hacer una predicción o sugerencia sobre algo
El Machine Learning en su uso más básico es la práctica de usar algoritmos para parsear datos, aprender de ellos y luego ser capaces de hacer una predicción o sugerencia sobre algo. Los programadores deben perfeccionar algoritmos que especifiquen un conjunto de variables para ser lo más precisos posibles en una tarea en concreto. La máquina es entrenada utilizando una gran cantidad de datos dando la oportunidad a los algoritmos a ser perfeccionados.
Desde los primeros albores de la temprana inteligencia artificial, los algoritmos han evolucionado con el objetivo de analizar y obtener mejores resultados: árboles de decisión, programación lógica inductiva (ILP), clustering para almacenar y leer grandes volúmenes de datos, redes Bayesianas y un numeroso abanico de técnicas que los programadores de data science.
El Despegue del Machine Learning gracias al Deep Learning y las redes neuronales
Por definición, Deep Learning es un subconjunto dentro del campo del Machine Learning, el cual predica con la idea del aprendizaje desde el ejemplo. Su uso es excelente extrayendo patrones a partir de datos en bruto
Siguiendo la evolución del Machine Learning en la última década se ha propagado con más fuerza una técnica concreta de Machine Learning conocida como Deep Learning.
Por definición, Deep Learning es un subconjunto dentro del campo del Machine Learning, el cual predica con la idea del aprendizaje desde el ejemplo.
En Deep Learning, en lugar de enseñarle a ordenador una lista enorme de reglas para solventar un problema, le damos un modelo que pueda evaluar ejemplos y una pequeña colección de instrucciones para modificar el modelo cuando se produzcan errores. Con el tiempo esperamos que esos modelos sean capaces de solucionar el problema de forma extremadamente precisa, gracias a que el sistema es capaz de extraer patrones.
Aunque existen distintas técnicas para implementar Deep Learning, una de las más comunes es simular un sistema de redes artificiales de neuronas dentro del software de análisis de datos.
Salvando las distancias, inspiradas en el funcionamiento biológico de nuestra cerebro compuesto por la interconexión entre neuronas. En nuestro caso simplificando esa red artificial de neuronas está compuesta por distintas capas, conexiones y una dirección en la que se propaga los datos atravesando cada capa con una tarea en concreto de análisis.
Se trata de proporcionar la suficiente cantidad de datos a las capas de neuronas para que puedan reconocer patrones, clasificarlos y categorizar. Una de las grandes ventajas es trabajar a partir de datos no etiquetado y analizar sus patrones de comportamiento y ocurrencia.
Por ejemplo, puedes tomar una imagen como información de entrada de la primera capa. Allí será particionada en miles de trozos que cada neurona analizará por separado. Podemos analizar el color, la forma, etc.. cada capa es experta en una característica y le va asignando un peso. Finalmente, las capa de final de neuronas recoge esa información y ofrece un resultado.
Cada neurona asigna un peso a la entrada, como un resultado correcto o incorrecto de forma relativa a su cometido. La salida estará determinada por la suma de esos pesos.
Si usamos el ejemplo de una imagen con una taza podemos analizar por una lado su forma, su textura respecto al fondo, la disposición del asa, si tiene un asa, si está apoyada en una mesa, etc.. La red neuronal concluirá si es o no es una señal. A base de entrenamiento podemos concluir con mejores probabilidades de acierto en cada una de la capa.
Ahora existe tecnología suficiente y recursos para poder tener al alcance de la mano el uso de Deep Learning. Si tenéis curiosidad podéis empezar a trastear con ella con una de las herramientas liberadas por Google, TensorFlow que permiten aplicar Deep Learning y otras técnicas de Machine learning de una forma bastante potente.
También existen otros servicios auspiciados por otros grandes actores en el tema de software como IBM, Amazon o Microsoft: IBM Watson Developer Cloud, Amazon Machine Learning o Azure Machine Learning.
La industria del futuro y del presente apuesta por el Deep Learning
El Deep Learning nos está empujando a otra realidad en la que seamos capaces de interpretar de otra forma nuestros mundo a través del reconocimiento de imágenes, el análisis del lenguaje natural y anticiparnos a muchos problemas gracias a la extracción de patrones de comportamiento. Cosa que hasta entonces el Machine Learning que conociamos hace unos años no nos permitía.
Tenemos ejemplos actuales de cada uno de ellos y los grandes de la industria del software están haciendo su apuesta de lo que será el futuro.
Uno de los grandes hitos de Deep Learning se produjo en 2012, cuando el equipo de Andrew NG por aquel entonces en Google, ahora en Baidu, fue capaz de reconocer un gato entre los más de 10 millones de vídeos de Youtube. En ese momento, fue necesario 16.000 ordenadores, ahora los medios necesarios son muchísimo menos.
La evolución sobre este tema llega a nuestros días con ejemplos como Facebook etiquetando cualquier imagen que subamos a la red social a través de su Computer Vision. De hecho, podemos probarlo con nuestras propias imágenes gracias a ciertas extensiones del navegador que simplemente exponen el texto alternativo que Facebook añade al html de la página.
Pero la computer vision no se queda solo ahí. En Silicon Valley hay un montón de startups usándola, tanto para la agricultura a través de imágenes áreas analizando cultivos o para las compras por internet. Por ejemplo, desde el análisis de la ropa que lleva un famoso en una foto de revista para sugerir dónde comprar esas prendas hasta poder analizar una imagen de una vacaciones y sugerir destinos turísticos similares.
Unas de las compras más reciente de Twitter iba encaminada al procesado de imágenes gracias al deep learning. Utilizando redes de neuronas es capaz de mejorar la calidad de las imágenes que llegan a través de un streaming, comprimiendo aún más el vídeo. El secreto: aprender cómo funcionan las imágenes y asemejar como el cerebro humano las interpreta. ¿La utilidad? Ya lo están probando en las retrasmisiones de los partidos de beisbol en algunos terminales móviles para ahorrar ancho de banda.
La conducción autónoma de Tesla o la anunciada por Uber adaptando sus vehículos. Está basada en el reconocimiento de ciertos patrones de conducción, incluso la capacidad de predecir accidentes segundos antes de que se produzcan como el siguiente vídeo.
@elonmusk Finally the right one. http://pic.twitter.com/2fspGMUoWf
— Hans Noordsij (@HansNoordsij) 27 de diciembre de 2016
La clave es analizar toda la información procedente del exterior y sintetizarla compartiendola con la red de sistemas interconectados. Ir aprendiendo de forma colaborativa de todos los aspecto necesario para sustituir a un humano, siendo más preciso que ellos.
Y Uber ya lo utiliza para optimizar los viajes que hacen sus conductores teniendo en cuenta distintas variables, más propias de la logística que del transporte urbano.
Otra de las áreas donde el deep learning tiene peso es el reconocimiento de voz. Google lleva años trabajando en este campo utilizando técnicas como Long Short-term Memory Recurrent Neural Networks (LSTM RNN) para mejorar sus servicios, incluidos los que utilizando sus teléfonos móviles Android al igual que su asistentes virtuales para poder hacer consultas en lenguaje natural, tanto al buscador como al los asistentes presentes en los dispositivos móviles.
Los retos del Machine Learning
Si queremos que los coches guiados por deep learning coduzcan por nosotros no basta con un 90% de precisión, necesitamos el 99,9999%
La necesidad para entrenar esas complejas redes de neuronas requiere aumentar la capacidad de procesamiento. En este punto una de las mejoras llevadas a cabo estos años ha sido el uso de GPUs para realizar estos trabajos de forma más eficiente. Lo cual ha ahorrado la necesidad de disponer de gran cantidad de ordenadores para realizar los cálculos. NVIDIA es uno de los principales impulsores de esta tecnología adaptando muchos de sus componentes a esta nueva realidad, tanto en la investigación como en el uso de procesadores para la IA de forma autónoma como en los vehículos o drones.
Otro de los retos más importantes es optimizar el uso de grandes volúmenes de datos para extraer patrones de ellos. Es necesario adecuar el almacenamiento de esos datos, indexarlos, y que el acceso sea lo suficientemente rápido para que pueda escalar. Para ello seguimos contando con los framework disponible en Big Data como Hadoop y Spark, acompañados de una amplia variedad de bases de datos NoSQ.
El problema no es ofrecer una precisión del 90% ni tan siquiera del 99%, cuando hablamos de que las máquinas piensen por nosotros o, incluso, conduciendo un vehículo de forma autónoma, es preciso disponer de un 99,999% de precisión. Ahí es dónde está el verdadero reto del deep learning.
En Xataka | 17 expectativas de cómo el machine learning va a cambiar el mundo
También te recomendamos
Los niños malos de los eSports son los nuevos punks con teclados y ratón
-
La noticia Machine Learning y Deep Learning: cómo entender las claves del presente y futuro de la inteligencia artificial fue publicada originalmente en Xataka por Txema Rodriguez .
Gracias a Txema Rodriguez
No hay comentarios.:
Publicar un comentario