0.1 Introducción a la Inteligencia Artificial...

Iniciado por Andrey, Octubre 01, 2017, 02:44:36 PM

Tema anterior - Siguiente tema

0 Miembros y 1 Visitante están viendo este tema.


El término Inteligencia Artificial (AI) se encuentra en los medios de comunicación día a día invocando tanto la emoción y el miedo en la población en general, incluyendo el cliché popular de Terminators tomar el mundo. Quise aprovechar esta oportunidad para intentar concisamente una explicación simplificada de la IA para la población en general en el contexto que muchas personas conocen.

La inteligencia artificial no es algo que sólo se crea mágicamente a partir del aire, es algo que tiene que ser entrenado, y para el futuro previsible tiene que ser entrenado por los seres humanos. Hay tres tipos principales de aprendizaje que una máquina puede hacer llamados supervisados , sin supervisión y refuerzo . A los efectos de esta analogía describiré en el contexto del aprendizaje supervisado. Tampoco discutiremos el dominio de preparación de datos en este artículo, aunque es muy importante en el mundo de la IA y con frecuencia constituye la mayor parte del trabajo para los Científicos de Datos.

Construya el modelo - obtenga los datos y entrene

El primer paso más importante para entrenar a una máquina es obtener los datos. Para entrenar a una computadora para entender formas y colores básicos primero necesito obtener tantos ejemplos de datos etiquetados que pueda, como miles de imágenes de triángulos con varios tamaños y colores y etiquetarlos como triángulo.

Yo haría lo mismo para las formas adicionales tales como cuadrado, círculo , etc . Para entender los colores, podría obtener miles de imágenes de formas etiquetadas con un color particular azul, verde, rojo. También podría obtener miles de imágenes con etiquetas de forma y color ( círculo azul, cuadrado verde, cuadrado rojo, etc ).

El objetivo de este entrenamiento es construir un modelo, que es simplemente lo que la máquina usará para determinar qué son formas y colores en los escenarios futuros. Sin entrar en los detalles técnicos de los diferentes algoritmos de entrenamiento, las funciones de pérdida, los parámetros, los hiperparámetros, etc. que se pueden usar, permite decir que el entrenamiento y la prueba ocurren durante muchas iteraciones hasta llegar a un punto donde creemos que nuestro modelo funcionaría y generalizan muy bien en estos futuros escenarios del mundo real de formas y colores. Si te estás preguntando qué es la generalización, llegaremos a eso más adelante.

Para enseñar o "entrenar" a un niño a aprender formas y colores, se puede sentar con él y hojea un libro donde se puede por ejemplo señalar un cuadrado verde y decir "cuadrado" o "verde". Puedo apuntar a un círculo verde y luego triángulo verde y decir "verde" en ambos casos. En efecto, estoy etiquetando los datos para él, al igual que los datos tendrían que ser etiquetados para una máquina en ML supervisado.

Si se repite este proceso muchas veces con él. Notaríamos mejoras incrementales con el tiempo hasta que creyéramos que él había entendido el concepto y había construido su propio modelo interno para aplicarlo a tareas futuras de identificación de forma y color.

Este proceso de aprendizaje es un concepto extremadamente importante. Si solo se le hubiera dado un libro y no se hubiera pasado el tiempo para "etiquetar"nada para él, él crecería sin concepto de qué colores o formas son aparte de ser capaz de reconocerlas visualmente y saber que de alguna manera estaban relacionados. Este concepto se conoce como aprendizaje sin supervisión, ya que al niño no se le habrían dado etiquetas, pero sería capaz de abstraer y agrupar las cosas.

Como se puede imaginar, siguiendo esta estrategia daría a el niño una baja probabilidad de éxito en el mundo real. Lo mismo ocurre con las máquinas. Una IA que se entrena sin ninguna interacción humana (incluyendo el software automatizado escrito por un ser humano) para "etiquetar" los datos antes del entrenamiento, también tendrá una baja probabilidad de éxito en el mundo real. Hay técnicas más recientes que utilizan el aprendizaje sin supervisión que son prometedoras, pero que no funcionan bien en un entorno dinámico e incontrolado.

Preciso pero sesgado

Un concepto importante que a menudo se pasa por alto en el mundo no académico IA es sesgo . Una manera sencilla de explicar esto es con el concepto de racismo . Basándome en los recientes acontecimientos mediáticos, estoy seguro de que todo el mundo conoce bien este tema y las controversias que lo rodean.

Los individuos no son racistas cuando nacen. Esto es algo que se aprende a través de la exposición a diferentes "datos de entrenamiento" del racismo, ya sea de la familia, amigos, medios de comunicación o algunos otros eventos ambientales específicos. Eso crea un sesgo o una lente específica a la que ven el mundo.


Una máquina no es diferente. Los sistemas de IA entrenados con datos que están fuertemente sesgados siempre llevar esto al tratar de realizar una tarea y proporcionará resultados sesgados a la vista en la que fue entrenado. Por lo tanto, los sistemas pueden ser capaces de proporcionar resultados brillantes precisos con baja variabilidad, pero la utilidad de estos modelos en escenarios del mundo real viene a cuestionar.

Si no puede generalizar, no es bueno

Un modelo no se generalizaría muy bien al fijar cosas en un ambiente del mundo real.
En el mundo del ML, esta falta de generalización suele ser causada por la superposición de un modelo. Esto ocurre porque un modelo está entrenado para minimizar el error basado en una función de pérdida determinada y hace que se construya un modelo para ajustar con precisión los datos de entrenamiento.



En el caso del niño, se ajustó más a su modelo interno para proporcionar el mejor resultado de los datos limitados que se le expusieron. Debido a que los datos de entrenamiento son sólo un pequeño subconjunto de lo que son los datos del mundo real, estos modelos no generalizables terminan proporcionando malos resultados en escenarios del mundo real. Hay muchas técnicas que los científicos e ingenieros de datos usan para superar este problema, pero desafortunadamente todavía es un problema real en el mundo de la comercialización de IA y una razón por la cual muchas aplicaciones no funcionan bien al ser liberadas.

La forma en que un ser humano aprende y razona es un tema extremadamente complejo al que los investigadores todavía no están totalmente seguros acerca de la mecánica del cerebro humano. Las máquinas pueden procesar las cosas muy rápidamente, pero carecen de las capacidades de abstracción que los humanos hacen, por lo que replicar la inteligencia humana es una tarea muy compleja de la que todavía estamos lejos. No hay necesidad de preocuparse por los Terminators todavía.




Aviso: esta primera semana traeré textos de este tipo para que se familiaricen con la IA...
Los fines de semana será algún otro contenido.
Saludos. Gracias por leer.
Andrey...


"Es un mundo brutal y peligroso el que hay allá afuera... Pero encontré mi camino. El caos es mi hogar, y me aseguraré de que no escapes de el"...

"Solo se necesita una excusa para cambiar el mundo"