En las décadas del 1980, creció el uso
de sistemas expertos, como MYCIN: R1/XCON, ABRL, PIP, PUFF, CASNET,
INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy (shells) como EMYCIN,
EXPERT, OPSS
En esta
época de la Edad Ilustración de la Inteligencia Artificial, se destaca el
aprendizaje automático o el machine learning que
proporciona a las computadoras la capacidad de aprender, sin ser programadas
explícitamente.
El aprendizaje automático es la rama de la Inteligencia Artificial que
se dedica al estudio de los agentes/programas que aprenden o evolucionan
basados en su experiencia, para realizar una tarea determinada cada vez mejor este
se centra en el desarrollo de programas informáticos que pueden cambiar cuando
se exponen a nuevos datos.
El objetivo principal de todo proceso de aprendizaje automático es
utilizar la evidencia conocida para detectar patrones así poder crear una
hipótesis y poder dar una respuesta a nuevas situaciones no conocidas ajustando las
acciones del programa en consecuencia. este es similar al de la minería de
datos. Ambos sistemas buscan entre los datos para encontrar patrones. Sin
embargo, en lugar de extraer los datos para la comprensión humana como es el
caso de las aplicaciones de minería de datos.
El aprendizaje automático tiene
una amplia gama de aplicaciones, incluyendo motores de búsqueda, diagnósticos
médicos, detección de fraude en el uso de tarjetas de crédito, análisis del
mercado de valores, clasificación de secuencias de ADN, reconocimiento del
habla y del lenguaje escrito, juegos y robótica.
Los
diferentes algoritmos de Aprendizaje Automático se agrupan en
una taxonomía en función de la salida de los mismos. Algunos tipos de
algoritmos son:
Aprendizaje
supervisado
El algoritmo produce una
función que establece una correspondencia entre las entradas y las salidas
deseadas del sistema. Un ejemplo de este tipo de algoritmo es el problema
de clasificación, donde el sistema de aprendizaje trata de etiquetar
(clasificar) una serie de vectores utilizando una entre varias categorías
(clases). La base de conocimiento del sistema está formada por ejemplos de
etiquetados anteriores. Este tipo de aprendizaje puede llegar a ser muy útil en
problemas de investigación biológica, biología
computacional y bioinformática.
Aprendizaje
no supervisado
Todo el proceso de modelado se
lleva a cabo sobre un conjunto de ejemplos formado tan sólo por entradas al
sistema. No se tiene información sobre las categorías de esos ejemplos. Por lo
tanto, en este caso, el sistema tiene que ser capaz de reconocer patrones para
poder etiquetar las nuevas entradas.
Aprendizaje
semi supervisado
Este tipo de algoritmos
combinan los dos algoritmos anteriores para poder clasificar de manera adecuada.
Se tiene en cuenta los datos marcados y los no marcados.
Aprendizaje
por refuerzo:
El algoritmo aprende observando
el mundo que le rodea. Su información de entrada es
el feedback o retroalimentación que obtiene del mundo
exterior como respuesta a sus acciones. Por lo tanto, el sistema aprende a base
de ensayo-error.
Transducción:
Similar al aprendizaje supervisado, pero no construye de forma
explícita una función. Trata de predecir las categorías de los futuros ejemplos
basándose en los ejemplos de entrada, sus respectivas categorías y los ejemplos
nuevos al sistema.
Redes
híbridas
Son un enfoque mixto en el que
se utiliza una función de mejora para facilitar la convergencia. Un ejemplo de
este último tipo son las redes de base radial.
Aprendizaje multi-tarea:
Métodos de aprendizaje que usan conocimiento previamente aprendido
por el sistema de cara a enfrentarse a problemas parecidos a los ya vistos.
1981:
En 1981 Kazuhiro Fuchi anuncia el proyecto japonés de la quinta
generación de computadoras. La quinta generación de computadoras, también
conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems)
fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970. Su
objetivo era el desarrollo de una nueva clase de computadoras que utilizarían
técnicas y tecnologías de inteligencia artificial tanto en el plano del
hardware como del software, usando el lenguaje PROLOG al nivel del lenguaje de
máquina y serían capaces de resolver problemas complejos, como la traducción
automática de una lengua natural a otra (del japonés al inglés, por ejemplo).
Como unidad de medida del rendimiento y prestaciones de estas
computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second)
capaz de realizar durante la ejecución de las distintas tareas programadas.
Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very
Large Scale Integration). El proyecto duró once años, pero no obtuvo los
resultados esperados: las computadoras actuales siguieron así, ya que hay
muchos casos en los que, o bien es imposible llevar a cabo una paralelización
del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el
peor de los casos, se produce una pérdida de rendimiento.
1986:
En 1986 McClelland y
Rumelhart publican Parallel Distributed Processing (Redes Neuronales).
Las redes de neuronas
artificiales (denominadas habitualmente como RNA o
en inglés como: "ANN”) son un paradigma de aprendizaje y procesamiento
automático inspirado en la forma en que funciona el sistema
nervioso de los animales. Se trata de un sistema de
interconexión de neuronas que colaboran entre sí para producir un
estímulo de salida. En inteligencia artificial es frecuente referirse
a ellas como redes de neuronas o redes neuronales.
1987:
Marvin Minsky
publicó The Society of Mind, una descripción teórica de la mente como una colección
de cooperantes agentes. Había estado dando conferencias en la idea durante años
antes de que saliera el libro (cf Doyle 1983).
Casi al mismo
tiempo, Rodney Brooks introdujo la arquitectura de subsunción y la robótica
basados en el comportamiento como un modelo modular más minimalista de la
inteligencia natural; Nouvelle AI.
Nouvelle AI
difiere de AI clásica por el objetivo de producir robots con los niveles de
inteligencia similares a los insectos. Los investigadores creen que la
inteligencia puede surgir orgánicamente de comportamientos simples como estas
inteligencias interactuaron con el "mundo real", en lugar de utilizar
los mundos construidos, que por lo general IA simbólica necesario haber
programado en ellos.
El lanzamiento
comercial de la generación 2.0 de prontitud por Alacritous Inc./Allstar
consejos Inc. de Toronto, el primer sistema de asesoramiento estratégico y de
gestión comercial. El sistema se basa en un encadenamiento progresivo, sistema
experto de desarrollo propio con 3.000 reglas acerca de la evolución de los
mercados y las estrategias competitivas y co-escrito por Alistair Davidson y
Mary Chung, fundadores de la firma con el motor subyacente desarrollado por
Paul Tarvydas. El sistema prontitud también incluyó un pequeño sistema experto
financiero que interpreta estados financieros y modelos.
1987:
Martin Fischles y
Oscar Firschein describieron los atributos de un agente inteligente. Al
intentar describir con un mayor ámbito (no solo la comunicación) los atributos
de un agente inteligente, la IA se ha expandido a muchas áreas que han creado
ramas de investigación enormes y diferenciadas.
Dichos atributos
del agente inteligente son:
- ·
Tiene actitudes mentales tales como creencias e
intenciones.
- ·
Tiene la capacidad de obtener conocimiento, es decir,
aprender.
- ·
Puede resolver problemas, incluso descomponiendo problemas
complejos en otros más simples.
- ·
Capaz de realizar operaciones más complejas.
- ·
Entiende. Posee la capacidad de dar sentido, si es
posible, a ideas ambiguas o contradictorias.
- ·
Planifica, predice consecuencias, evalúa alternativas
(como en los juegos de ajedrez)
- ·
Conoce los límites de sus propias habilidades y
conocimientos.
- ·
Puede distinguir a pesar de la similitud de las
situaciones.
- ·
Puede ser original, creando incluso nuevos conceptos o
ideas, y hasta utilizando analogías.
- ·
Puede generalizar.
- ·
Puede percibir y modelar el mundo exterior.
- ·
Puede entender y utilizar el lenguaje y sus símbolos.
Podemos entonces
decir que la IA posee características humanas tales como el aprendizaje, la
adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y la
percepción modular del mundo. Así, podemos hablar ya no solo de un objetivo,
sino de muchos, dependiendo del punto de vista o utilidad que pueda encontrarse
a la IA.
1988:
El grupo de
Inteligencia artificial de DEC había distribuido ya 40 sistemas expertos, y había
más en camino. Du Pont utilizaba ya 100 y estaban en etapa de desarrollo 500 más,
lo que generaba ahorro de diez millones de dólares anuales aprox.
La industria de
la IA creció rápidamente, pasando de unos pocos millones de dólares en 1980 a
billones de dólares en 1988.
Este mismo año se
establecen los lenguajes orientados a objetos estos son lenguajes
dinámicos en los que estos objetos se pueden crear y modificar sobre la marcha.
Esta programación orientada a objetos (POO)
tomo auge a mediados de los años ochenta debido a la propagación de las
interfaces gráficas de usuarios, para lo que los lenguajes de programación
orientados a objetos están especialmente dotados.
Tratán a los programas como
conjuntos de objetos que se ayudan entre ellos para realizar acciones.
Entendiendo como objeto a entidades que contienen datos. Permitiendo que los
programas sean más fáciles de escribir, mantener y reutilizar.
Los
objetos tienen toda la información (atributos) que los diferencia de otros pertenecientes
a otra clase. Por medio de unos métodos se comunican los objetos de una misma o
diferente clase produciendo el cambio de estado de los objetos. Esto hace que a
los objetos se les trate como unidades indivisibles en las que no se separan la
información ni los métodos usados en su tratamiento.
Los
principales lenguajes de programación orientados a objetos son: Ada, C++, C#,
VB.NET, Clarion, Delphi, Eiffel, Java, Lexico (en castellano), Objective-C,
Ocaml, Oz, PHP, PowerBuilder, Python, Ruby y Smalltalk.
1989:
Dean Pomerleau en CMU crea
ALVINN (un vehículo terrestre autónomo en un Neural Network), que creció en el
sistema que conducía un coche de costa a costa Bajo control de la computadora
para todos menos cerca de 50 de las 2850 millas.