domingo, 9 de abril de 2017

La Edad Ilustración (1980 – 1990) Aprendizaje Automático:

En las décadas del 1980, creció el uso de sistemas expertos, como MYCIN: R1/XCON, ABRL, PIP, PUFF, CASNET, INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy (shells) como EMYCIN, EXPERT, OPSS


En esta época de la Edad Ilustración de la Inteligencia Artificial, se destaca el aprendizaje automático o el machine learning que proporciona a las computadoras la capacidad de aprender, sin ser programadas explícitamente.

El aprendizaje automático es la rama de la Inteligencia Artificial que se dedica al estudio de los agentes/programas que aprenden o evolucionan basados en su experiencia, para realizar una tarea determinada cada vez mejor este se centra en el desarrollo de programas informáticos que pueden cambiar cuando se exponen a nuevos datos.

El objetivo principal de todo proceso de aprendizaje automático es utilizar la evidencia conocida para detectar patrones así poder crear una hipótesis y poder dar una respuesta a nuevas situaciones no conocidas ajustando las acciones del programa en consecuencia. este es similar al de la minería de datos. Ambos sistemas buscan entre los datos para encontrar patrones. Sin embargo, en lugar de extraer los datos para la comprensión humana como es el caso de las aplicaciones de minería de datos.

El aprendizaje automático tiene una amplia gama de aplicaciones, incluyendo motores de búsqueda, diagnósticos médicos, detección de fraude en el uso de tarjetas de crédito, análisis del mercado de valores, clasificación de secuencias de ADN, reconocimiento del habla y del lenguaje escrito, juegos y robótica.
 Los diferentes algoritmos de Aprendizaje Automático se agrupan en una taxonomía en función de la salida de los mismos. Algunos tipos de algoritmos son:



Aprendizaje supervisado
El algoritmo produce una función que establece una correspondencia entre las entradas y las salidas deseadas del sistema. Un ejemplo de este tipo de algoritmo es el problema de clasificación, donde el sistema de aprendizaje trata de etiquetar (clasificar) una serie de vectores utilizando una entre varias categorías (clases). La base de conocimiento del sistema está formada por ejemplos de etiquetados anteriores. Este tipo de aprendizaje puede llegar a ser muy útil en problemas de investigación biológica, biología computacional y bioinformática.


Aprendizaje no supervisado
Todo el proceso de modelado se lleva a cabo sobre un conjunto de ejemplos formado tan sólo por entradas al sistema. No se tiene información sobre las categorías de esos ejemplos. Por lo tanto, en este caso, el sistema tiene que ser capaz de reconocer patrones para poder etiquetar las nuevas entradas.



Aprendizaje semi supervisado
Este tipo de algoritmos combinan los dos algoritmos anteriores para poder clasificar de manera adecuada. Se tiene en cuenta los datos marcados y los no marcados. 

Aprendizaje por refuerzo:
El algoritmo aprende observando el mundo que le rodea. Su información de entrada es el feedback o retroalimentación que obtiene del mundo exterior como respuesta a sus acciones. Por lo tanto, el sistema aprende a base de ensayo-error. 

Transducción:
Similar al aprendizaje supervisado, pero no construye de forma explícita una función. Trata de predecir las categorías de los futuros ejemplos basándose en los ejemplos de entrada, sus respectivas categorías y los ejemplos nuevos al sistema.

Redes híbridas
Son un enfoque mixto en el que se utiliza una función de mejora para facilitar la convergencia. Un ejemplo de este último tipo son las redes de base radial.

Aprendizaje multi-tarea:
Métodos de aprendizaje que usan conocimiento previamente aprendido por el sistema de cara a enfrentarse a problemas parecidos a los ya vistos.


1981:

En 1981 Kazuhiro Fuchi anuncia el proyecto japonés de la quinta generación de computadoras. La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software, usando el lenguaje PROLOG al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo).

Como unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration). El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento.



1986:

En 1986 McClelland y Rumelhart publican Parallel Distributed Processing (Redes Neuronales).
Las redes de neuronas artificiales (denominadas habitualmente como RNA o en inglés como: "ANN”) son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas que colaboran entre sí para producir un estímulo de salida. En inteligencia artificial es frecuente referirse a ellas como redes de neuronas o redes neuronales.





1987:

Marvin Minsky publicó The Society of Mind, una descripción teórica de la mente como una colección de cooperantes agentes. Había estado dando conferencias en la idea durante años antes de que saliera el libro (cf Doyle 1983). 



Casi al mismo tiempo, Rodney Brooks introdujo la arquitectura de subsunción y la robótica basados en el comportamiento como un modelo modular más minimalista de la inteligencia natural; Nouvelle AI.



Nouvelle AI difiere de AI clásica por el objetivo de producir robots con los niveles de inteligencia similares a los insectos. Los investigadores creen que la inteligencia puede surgir orgánicamente de comportamientos simples como estas inteligencias interactuaron con el "mundo real", en lugar de utilizar los mundos construidos, que por lo general IA simbólica necesario haber programado en ellos.

El lanzamiento comercial de la generación 2.0 de prontitud por Alacritous Inc./Allstar consejos Inc. de Toronto, el primer sistema de asesoramiento estratégico y de gestión comercial. El sistema se basa en un encadenamiento progresivo, sistema experto de desarrollo propio con 3.000 reglas acerca de la evolución de los mercados y las estrategias competitivas y co-escrito por Alistair Davidson y Mary Chung, fundadores de la firma con el motor subyacente desarrollado por Paul Tarvydas. El sistema prontitud también incluyó un pequeño sistema experto financiero que interpreta estados financieros y modelos.


1987:

Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. Al intentar describir con un mayor ámbito (no solo la comunicación) los atributos de un agente inteligente, la IA se ha expandido a muchas áreas que han creado ramas de investigación enormes y diferenciadas. 



Dichos atributos del agente inteligente son:
  • ·         Tiene actitudes mentales tales como creencias e intenciones.
  • ·         Tiene la capacidad de obtener conocimiento, es decir, aprender.
  • ·         Puede resolver problemas, incluso descomponiendo problemas complejos en otros más simples.
  • ·         Capaz de realizar operaciones más complejas.
  • ·         Entiende. Posee la capacidad de dar sentido, si es posible, a ideas ambiguas o contradictorias.
  • ·         Planifica, predice consecuencias, evalúa alternativas (como en los juegos de ajedrez)
  • ·         Conoce los límites de sus propias habilidades y conocimientos.
  • ·         Puede distinguir a pesar de la similitud de las situaciones.
  • ·         Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías.
  • ·         Puede generalizar.
  • ·         Puede percibir y modelar el mundo exterior.
  • ·         Puede entender y utilizar el lenguaje y sus símbolos.



Podemos entonces decir que la IA posee características humanas tales como el aprendizaje, la adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y la percepción modular del mundo. Así, podemos hablar ya no solo de un objetivo, sino de muchos, dependiendo del punto de vista o utilidad que pueda encontrarse a la IA.


1988:

El grupo de Inteligencia artificial de DEC había distribuido ya 40 sistemas expertos, y había más en camino. Du Pont utilizaba ya 100 y estaban en etapa de desarrollo 500 más, lo que generaba ahorro de diez millones de dólares anuales aprox.
La industria de la IA creció rápidamente, pasando de unos pocos millones de dólares en 1980 a billones de dólares en 1988.
Este mismo año se establecen los lenguajes orientados a objetos estos son lenguajes dinámicos en los que estos objetos se pueden crear y modificar sobre la marcha. Esta programación orientada a objetos (POO) tomo auge a mediados de los años ochenta debido a la propagación de las interfaces gráficas de usuarios, para lo que los lenguajes de programación orientados a objetos están especialmente dotados.
Tratán a los programas como conjuntos de objetos que se ayudan entre ellos para realizar acciones. Entendiendo como objeto a entidades que contienen datos. Permitiendo que los programas sean más fáciles de escribir, mantener y reutilizar.
Los objetos tienen toda la información (atributos) que los diferencia de otros pertenecientes a otra clase. Por medio de unos métodos se comunican los objetos de una misma o diferente clase produciendo el cambio de estado de los objetos. Esto hace que a los objetos se les trate como unidades indivisibles en las que no se separan la información ni los métodos usados en su tratamiento.
Los principales lenguajes de programación orientados a objetos son: Ada, C++, C#, VB.NET, Clarion, Delphi, Eiffel, Java, Lexico (en castellano), Objective-C, Ocaml, Oz, PHP, PowerBuilder, Python, Ruby y Smalltalk.



1989:

Dean Pomerleau en CMU crea ALVINN (un vehículo terrestre autónomo en un Neural Network), que creció en el sistema que conducía un coche de costa a costa Bajo control de la computadora para todos menos cerca de 50 de las 2850 millas.



No hay comentarios:

Publicar un comentario