La mayoría de la gente aún relaciona la Inteligencia Artificial (IA) con películas de ciencia ficción. Sin embargo, y aunque no seamos conscientes, es una tecnología que estamos usando constantemente, por ejemplo en los smartphones que llevamos en el bolsillo.

Que las cámaras de nuestros teléfonos reconozcan los rostros de las personas, que nuestros ordenadores puedan entender discursos y traducirlos, que nos hagan recomendaciones en nuestras búsquedas en Internet o que haya coches autónomos… es inteligencia artificial. Y lo cierto es que, hace poco tiempo, todo esto se hubiese visto como ciencia ficción.

¿Qué es la inteligencia artificial (IA)?

Para explicarlo de manera sencilla, se usa el término IA cuando las máquinas o los sistemas informáticos se comportan de una manera que simula la inteligencia humana.

Un poco de historia

El concepto de inteligencia artificial no es tan reciente como parece.  Su punto de partida fue el año 1950, cuando Alan Turing, considerado el padre de la IA, publicó un artículo en la revista Mind con el título “Computing machinery and intelligence”. En este artículo Turing se hacía la pregunta: ¿Pueden las máquinas pensar? y proponía un método para determinar si una máquina puede pensar. Este método pasó a denominarse Test de Turing y todavía hoy se considera la prueba de fuego de la IA. Consiste básicamente en una conversación entre un ser humano y una máquina diseñada para interactuar verbalmente, la conversación se efectúa en lenguaje común y busca que se pueda identificar cuál es el humano y cuál es la máquina. Se cuenta con 5 minutos de conversación para convencer a la persona que evalúa, que quien está detrás de la pantalla es un ser humano (la máquina solo se expresa a través de chat tras una pantalla). Si logra convencerlo, la máquina pasa la prueba.

Sin embargo, numerosos investigadores e historiadores consideran que el punto de partida de la moderna inteligencia artificial fue el año 1956, cuando John McCarthy, Marvin Minsky y Claude Shannon acuñaron este término durante la conferencia de Darthmounth para referirse a “la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cálculo inteligentes”.

Durante las décadas siguientes apenas hubo desarrollo en esta área hasta que en los 90 y los 2000 la mayoría de las empresas tecnológicas empezaron a invertir en IA, con el fin de mejorar la capacidad de procesamiento y análisis de la ingente cantidad de datos que se generan en el creciente mundo digital.

Destacan hitos importantes, como cuando en 1997 el supercomputador Deep Blue de IBM ganó al campeón mundial de ajedrez Gari Kasparov. Sin embargo, es en la segunda década del siglo XXI cuando empiezan a sucederse acontecimientos de impacto real en la vida de las personas.

En febrero de 2011, el supercomputador Watson de IBM derrotó a los campeones humanos del concurso estadounidense de preguntas y respuestas Jeopardy! Watson es una computadora capaz de aprender a medida que trabaja. Acumula información y puede interactuar con las personas en un lenguaje natural. Actualmente esta computadora está disponible y se puede acceder a ella desde la Nube. Tiene clientes en numerosos países, como CaixaBank y Repsol en España.

En el año 2011 Apple presenta el asistente virtual Siri integrado en el teléfono móvil iPhone 4S. En junio de 2012 Google presentó su asistente virtual, Google Now, y en abril de 2014 Microsoft presentó su propio asistente virtual, Cortana.

En marzo de 2016, el software de inteligencia artificial Alpha Go de Google ganó al campeón mundial de Go, un juego milenario de estrategia muy complejo.

Machine learning  y Deep learning

Cuando la investigación en IA comenzó, los investigadores intentaban replicar la inteligencia humana para tareas específicas, introduciendo o programando un gran número de reglas que el ordenador necesitaba respetar. Éste tenía una lista específica de posibles acciones y tomaba decisiones basadas en esas reglas.

El machine learning o aprendizaje automático dio paso a la siguiente generación de IA. El machine learning permite que los ordenadores aprendan por sí mismos, sin haber sido programados de manera directa para ello, entrenándolos con miles de ejemplos para identificar patrones en los datos. Esto supone que ya no es necesario programar absolutamente todo lo que quieres que haga un ordenador; es preferible que el ordenador aprenda por sí mismo a partir de ejemplos. Las recomendaciones al realizar búsquedas o los filtros en los emails son ejemplos de machine learning.

El deep learning o aprendizaje profundo es una subcategoría de machine learning que procesa la información siguiendo el funcionamiento de las redes neuronales del cerebro humano. Se trata de construir un modelo que sea capaz de reproducir el método de aprendizaje del cerebro humano. Funciones como el reconocimiento del habla, el reconocimiento de imagen o el procesamiento de lenguaje natural son ejemplos de deep learning, tecnología que está detrás de los últimos avances en IA.

Los pesos pesados del sector tecnológico están apostando fuerte en esta tecnología. Google, por ejemplo, adquirió DeepMind, empresa especializada en el desarrollo de redes neuronales. El gigante de las búsquedas trabaja en un sistema informático capaz de distinguir en un vídeo una cara humana de la de un perro, gente patinando o durmiendo, un gato… Y todo por sí solo y sin que nadie haya puesto etiquetas en el archivo previamente. La idea es que vaya aprendiendo tras “alimentarse” con millones de grabaciones.

IBM, por su parte, afina su superordenador Watson. Su intención es mejorar las funciones cognitivas del ingenio para que pueda realizar diagnósticos médicos, análisis de la personalidad y traducciones en tiempo real. Y los ingenieros de Facebook han ideado un algoritmo que permite reconocer un rostro con éxito el 97 % de las veces, aunque haya sido mal captado.

A pesar de estos grandes avances, estamos muy, muy lejos de los androides de las películas de ciencia ficción. Los sistemas de IA actuales están preparados para realizar tareas específicas. Por ejemplo, pueden ser extraordinarios jugando al ajedrez, pero no saber nada de las damas o el parchís.

Como explica José Luis Pons, físico responsable del grupo de neurorrehabilitación del Instituto Cajal, dependiente del CSIC, “Hay tecnologías sorprendentes desde el punto de vista de la clasificación de patrones, de solución de textos, de identificación de habla, pero todavía no me sorprende ningún comportamiento que sea fruto de la IA por especialmente inteligente. No, no creo que vayamos a ver ni replicantes al estilo Blade Runner ni a Terminator“.

¿Quieres saber más? Pulsa aquí o accede a wikipedia.