Inteligencia Artificial

Qué es y cómo funciona el machine learning

El Machine Learning es una combinación de disciplinas científicas para crear sistemas que aprendan sin necesidad de la intervención humana. Así funciona.

Por Redacción México, el 16/08/2019

auto ¿Te ha gustado nuestro artículo? ¡Vota!

El Machine Learning es una combinación de disciplinas científicas para crear sistemas que aprendan sin necesidad de la intervención humana. Con ello nos referimos a que sean capaces de identificar patrones complejos en millones de datos, pero que al mismo tiempo sean capaces de afinar su desempeño de forma autónoma y progresiva.

Si tradujéramos el término Machine Learning al español podríamos hablar de aprendizaje automático que desarrolla una máquina o conjunto informático.

Se considera una rama de la Inteligencia Artificial y consiste en la elaboración de algoritmos capaces de aprender por si mismos basándose en los datos sin necesidad de ser explícitamente programados.

En síntesis, se trata de un proceso de inducción de conocimiento a un sistema técnico con enfoque al diseño de soluciones factibles para problemas específicos.

Aunque la lista es más larga, estas son algunas de las aplicaciones más comunes del machine learning en la actualidad:

  • Atención al cliente.
  • Detección de patrones y tendencias para business intelligence.
  • Diagnósticos médicos.
  • Identificación de errores/fraudes en operaciones finacieras.
  • Movilidad urbana.
  • Predicción de incidencias en entornos tecnológicos (mantenimiento, soporte, etc.).
  • Previsión de condiciones temporales de negocio (promociones, cargas de trabajo, etc.).
  • Seguridad empresarial.
  • Social media listening.

Historia del Machine Learning

1951: Alan Turing crea un test para determinar la habilidad de una máquina para exhibir un comportamiento inteligente similar al de un ser humano.

1952: Arthur Samuel escribe el primer programa de aprendizaje informático: un juego de damas que mejoraba su desempeño a medida que se jugaban más partidas.

1956: Se celebra la conferencia Darthmouth, considerada la cuna de la Inteligencia Artificial.

Frank Rosenblatt inventa Perceptron, tecnología que intenta emular al cerebro humano, basándose en una especie de red neuronal, para tomar decisiones simples.

1960: Se crea el algoritmo Nearest Neighbor de reconocimiento de patrones muy básico.

1970: En la Universidad de Stanford programan un vehículo autónomo para que recorra un circuito con obstáculos mediante la interpretación de imágenes obtenidas por un sistema de televisión integrado.

1981: Gerald Dejong plantea el concepto Aprendizaje Basado en Explicación (EBL, por sus siglas en inglés), donde una computadora analiza datos de entrenamiento y crea una regla general para descartar escenarios.

1985: Terry Sejnowski inventa NetTalk, sistema que aprende a pronunciar palabras de la misma manera que lo haría un niño.

1990: El Machine Learning gana popularidad al incluir modelos estadísticos que dieron lugar a modelos probabilísticos de IA.

En este periodo se comienza a usar en áreas comerciales para minería de datos, software adaptable, aplicaciones web, aprendizaje de texto y de idiomas.

1997: El ordenador Deep Blue de IBM vence al campeón mundial de ajedrez Gary Kaspárov.

2000: El nuevo milenio trajo una explosión en el uso del Machine Learning en un sinfín de áreas de trabajo.

2006: Geoffrey Hinton acuña el término “Deep Learning” para explicar nuevas arquitecturas de Redes Neuronales que permiten a una computadora interpretar el mundo a partir de texto, imágenes y videos.

2010: A partir de este punto, los gigantes de la industria digital comenzaron con sus propios desarrollos:

IBM: Su tecnología Watson es capaz de responder a preguntas formuladas en lenguaje natural e incluso supera a un humano en el juego Jeopardy.

Google: Jeff Dean y Andrew Ng lideran el proyecto GoogleBrain para desarrollar una red neuronal profunda para descubrir y categorizar objetos.

Facebook: Desarrollan DeepFace, un algoritmo de software que reconoce o verifica individuos en fotos compartidas en su red social.

Amazon: Crea su propia plataforma de Machine Learning con enfoque a temas de comercio electrónico, procesamiento en almacenes y redes de distribución.

Microsoft: Logra que Kinect identifique 20 funciones humanas a una velocidad de 30 veces por segundo, para que el usuario interactúe con el Xbox con gestos. También crea el Distributed Machine Learning Toolkit, para la distribución eficiente de problemas de Machine Learning en múltiples computadoras.

2015: Más de tres mil investigadores de IA y robótica, respaldados por Stephen Hawking, Elon Musk, Steve Wozniak y más, firman una carta abierta para advertir del peligro de armas autónomas que ubican y atacan objetivos sin intervención humana.

2016: Google DeepMind vence en el complicado juego de mesa Go al experto Lee Sedol con movimientos “creativos” que no se habían visto hasta entonces.

Tipología de la información

El primer punto será identificar el insumo de este proceso, es decir , los elementos con los que funciona el Machine Learning: datos estructurados y no estructurados.

Los primeros son los más utilizados por una empresa y se suelen encontrar en casi cualquier base de datos, son datos que tienen estructura. Suelen ser archivos de texto, hojas de cálculo, bases de datos. Tienen formato, estructura y cualquier herramienta que conozca este formato puede procesarlos sin mayor complejidad.

Un ejemplo claro es un CRM clasificado por nombre, email, teléfono y otra información de un listado de clientes.

Por otra parte, los no estructurados son datos que carecen de una estructura, como por ejemplo un video. Sin embargo, una vez que son procesados, permiten obtener información. Para poder entender mejor el concepto, en un video no sabemos si aparece una imagen de un perro, pero si lo vemos y lo etiquetamos, dotamos de estructura o significado, tendremos datos con estructura.

Modelos de aprendizaje

Los algoritmos de aprendizaje automático, se basan en los datos para aprender, en decir toman como entrada un conjunto de datos de los que aprende. Es decir si la entrada son los datos de las casas con su valor de mercado, podremos entrenar un algoritmo que nos diga cual es probablemente el valor de una casa basándose en sus características. Cuantas más características le demos de la casa más preciso será a la hora de predecir el precio de otras casas.

Existen dos grandes familias de algoritmos dentro del aprendizaje automatizado:

Aprendizaje supervisado: Esta familia de algoritmos se basan en un conjunto de datos, que como en el ejemplo de la casa, contienen la respuesta correcta, es decir en nuestro caso el precio.  Técnicamente se dicen que el conjunto de datos está etiquetado.

Dentro del aprendizaje automatico supervisado tenemos dos grandes familias de algoritmos, la regresión y la clasificación.

Los algoritmos de aprendizaje supervisado que realizan regresión, intentan predecir una variable continua, como por ejemplo el precio de una casa, la temperatura que va a hacer mañana o el número de clientes que acudirán mañana a un restaurante. Otra gran familia de algoritmos son los algoritmos de aprendizaje supervisado que realizan clasificación, en este caso los algoritmos intentan predecir si se va a realizar o no un hecho, por ejemplo lloverá mañana,  un paciente tiene gripe (si o no), un alumno aprobará una asignatura.

Aprendizaje no supervisado:en este caso los datos de entrada, el conjunto de datos que le damos o proporcionamos al algoritmo no contienen etiqueta, el objetivo de estos algoritmos es encontrar y agrupar los datos basándose en sus características, se usa fundamentalmente para segmentarlos en  conjuntos similares.

A este escenario se le llama clustering o aglomeración de los datos. Esto es útil para reducir el número de variables totales, a fin de eliminar la pérdida de información y visualizar los datos para su posterior comprensión.

Aprendizaje de refuerzo: este es el similar al que experimentamos los humanos, ya que funciona por condicionamiento operante al extremo. Se basa en un sistema de recompensa cuando el algoritmo da un resultado positivo. De esta manera va aprendiendo a realizar mejor su tarea en base a prueba y error. Es el mismo principio que cuando estamos educando un perro, cuando hace algo bien le decimos buen perro y le acariciamos, cuando hace algo mal le decimos malo y ponemos para de descontentos.

El aprendizaje por refuerzo, junto con las redes neuronales son las técnicas que más datos requieren en el entrenamiento, podemos decir que son tontos muy listos, aprenden lento pero cuando aprenden son muy muy precisos, por eso son actualmente las técnicas más prometedoras que se usan en por ejemplo coches autónomos o asistentes de voz virtuales

Herramientas de Machine Learning

En realidad hay muchas soluciones de software de código abierto para Machine Learning. Las siguientes propuestas incluyen las tres principales librerías para diferentes tipos de lenguaje de programación:

TensorFlow: Biblioteca de Aprendizaje Automático y Aprendizaje Profundo

Es una herramienta de Google compatible con muchos algoritmos clásicos para clasificar y análisis regresivos. Su principal ventaja es que tiene un gran soporte para redes neuronales y algoritmos de aprendizaje profundo. Además, se centra en la eficiencia computacional y admite cálculos de CPU, GPU y TPU.

Pandas: extracción de datos y preparación

Otra biblioteca muy popular para organizar raw data (datos no estructurados) para su uso posterior en otras plataformas. Es compatible con muchas operaciones complejas diferentes a través de conjuntos de datos y ofrece la posibilidad de obtener fácilmente registros de diferentes fuentes, como bases SQL, texto, CSV, Excel, archivos JSON y formatos menos populares.

Sciki-learn: una de las más versátiles y usadas en el mundo

Python se ha convertido en el lenguaje de programación para matemáticas, ciencia y estadística por lo fácil que es adoptarlo y el número de librerías disponibles. Su catálogo está disponible bajo licencia BSD, por lo que es completamente abierta y reutilizable.

Como dijimos al comenzar este apartado, nos limitamos a mencionar las más usadas, pero hay muchísimas más opciones y lo ideal en la mayoría de los casos será recurrir a varias herramientas de Machine Learning, dependiendo de la naturaleza y objetivo de la información.

TAGS:
Imagen del autor Redacción México

Equipo de redacción de B12 México: Marketing, Big Data, Inteligencia Artificial y Ventas.

Ponte en contacto con nosotros:

+51 (01) 702-8603

lima@agenciab12.com

Av. Jorge Chávez 275, Piso 2, Miraflores