domingo, 9 de abril de 2017

Introduccion

Al investigar el significado de la inteligencia artificial(IA), existen diversas definiciones con diferentes puntos de vistas, pero lo cierto es que la IA apunta a la capacidad que debe tener un sistema de " aprender" de los hechos y/o estímulos a los cuales se ve enfrentado en una determinada situación.

Actualmente la inteligencia artificial conaiate en crear teorías y modelos que muestre el ordenamiento y funcionamiento de la inteligencia, en donde actualmente se centra en el desarrollo de los sistemas de procesamiento de datos que lleguen a imitar la inteligencia humana, que realicen tareas cotidianas de los humanos, que solucionen problemas y que nos ayude a la hora de toma de decisiones.

En esta segunda parte trataremos Sobre la Edad de Ilustracion que comprenden desde 1980 hasta 1990 y que se resalta el ta de aprendizaje automático que consiste en aprender sin ser programado explicitamente.

Mientras que en el renacimiento Gótico que comprende de los años 1990 hasta la actualidad, se enfoca en la robótica, la interaccion con el humano, se mide en el desempeño de la inteligencia artificial contra la inteligencia humana. Se resaltan empresas como IBM con supercomputadoras como Deep Blue, Watson; La evolucion del Androide ASIMO creado por Honda y sistemas terapéuticos inteligentes para tratar con los niños que padecen de autismo.

La Edad Ilustración (1980 – 1990) Aprendizaje Automático:

En las décadas del 1980, creció el uso de sistemas expertos, como MYCIN: R1/XCON, ABRL, PIP, PUFF, CASNET, INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy (shells) como EMYCIN, EXPERT, OPSS


En esta época de la Edad Ilustración de la Inteligencia Artificial, se destaca el aprendizaje automático o el machine learning que proporciona a las computadoras la capacidad de aprender, sin ser programadas explícitamente.

El aprendizaje automático es la rama de la Inteligencia Artificial que se dedica al estudio de los agentes/programas que aprenden o evolucionan basados en su experiencia, para realizar una tarea determinada cada vez mejor este se centra en el desarrollo de programas informáticos que pueden cambiar cuando se exponen a nuevos datos.

El objetivo principal de todo proceso de aprendizaje automático es utilizar la evidencia conocida para detectar patrones así poder crear una hipótesis y poder dar una respuesta a nuevas situaciones no conocidas ajustando las acciones del programa en consecuencia. este es similar al de la minería de datos. Ambos sistemas buscan entre los datos para encontrar patrones. Sin embargo, en lugar de extraer los datos para la comprensión humana como es el caso de las aplicaciones de minería de datos.

El aprendizaje automático tiene una amplia gama de aplicaciones, incluyendo motores de búsqueda, diagnósticos médicos, detección de fraude en el uso de tarjetas de crédito, análisis del mercado de valores, clasificación de secuencias de ADN, reconocimiento del habla y del lenguaje escrito, juegos y robótica.
 Los diferentes algoritmos de Aprendizaje Automático se agrupan en una taxonomía en función de la salida de los mismos. Algunos tipos de algoritmos son:



Aprendizaje supervisado
El algoritmo produce una función que establece una correspondencia entre las entradas y las salidas deseadas del sistema. Un ejemplo de este tipo de algoritmo es el problema de clasificación, donde el sistema de aprendizaje trata de etiquetar (clasificar) una serie de vectores utilizando una entre varias categorías (clases). La base de conocimiento del sistema está formada por ejemplos de etiquetados anteriores. Este tipo de aprendizaje puede llegar a ser muy útil en problemas de investigación biológica, biología computacional y bioinformática.


Aprendizaje no supervisado
Todo el proceso de modelado se lleva a cabo sobre un conjunto de ejemplos formado tan sólo por entradas al sistema. No se tiene información sobre las categorías de esos ejemplos. Por lo tanto, en este caso, el sistema tiene que ser capaz de reconocer patrones para poder etiquetar las nuevas entradas.



Aprendizaje semi supervisado
Este tipo de algoritmos combinan los dos algoritmos anteriores para poder clasificar de manera adecuada. Se tiene en cuenta los datos marcados y los no marcados. 

Aprendizaje por refuerzo:
El algoritmo aprende observando el mundo que le rodea. Su información de entrada es el feedback o retroalimentación que obtiene del mundo exterior como respuesta a sus acciones. Por lo tanto, el sistema aprende a base de ensayo-error. 

Transducción:
Similar al aprendizaje supervisado, pero no construye de forma explícita una función. Trata de predecir las categorías de los futuros ejemplos basándose en los ejemplos de entrada, sus respectivas categorías y los ejemplos nuevos al sistema.

Redes híbridas
Son un enfoque mixto en el que se utiliza una función de mejora para facilitar la convergencia. Un ejemplo de este último tipo son las redes de base radial.

Aprendizaje multi-tarea:
Métodos de aprendizaje que usan conocimiento previamente aprendido por el sistema de cara a enfrentarse a problemas parecidos a los ya vistos.


1981:

En 1981 Kazuhiro Fuchi anuncia el proyecto japonés de la quinta generación de computadoras. La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software, usando el lenguaje PROLOG al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo).

Como unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration). El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento.



1986:

En 1986 McClelland y Rumelhart publican Parallel Distributed Processing (Redes Neuronales).
Las redes de neuronas artificiales (denominadas habitualmente como RNA o en inglés como: "ANN”) son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas que colaboran entre sí para producir un estímulo de salida. En inteligencia artificial es frecuente referirse a ellas como redes de neuronas o redes neuronales.





1987:

Marvin Minsky publicó The Society of Mind, una descripción teórica de la mente como una colección de cooperantes agentes. Había estado dando conferencias en la idea durante años antes de que saliera el libro (cf Doyle 1983). 



Casi al mismo tiempo, Rodney Brooks introdujo la arquitectura de subsunción y la robótica basados en el comportamiento como un modelo modular más minimalista de la inteligencia natural; Nouvelle AI.



Nouvelle AI difiere de AI clásica por el objetivo de producir robots con los niveles de inteligencia similares a los insectos. Los investigadores creen que la inteligencia puede surgir orgánicamente de comportamientos simples como estas inteligencias interactuaron con el "mundo real", en lugar de utilizar los mundos construidos, que por lo general IA simbólica necesario haber programado en ellos.

El lanzamiento comercial de la generación 2.0 de prontitud por Alacritous Inc./Allstar consejos Inc. de Toronto, el primer sistema de asesoramiento estratégico y de gestión comercial. El sistema se basa en un encadenamiento progresivo, sistema experto de desarrollo propio con 3.000 reglas acerca de la evolución de los mercados y las estrategias competitivas y co-escrito por Alistair Davidson y Mary Chung, fundadores de la firma con el motor subyacente desarrollado por Paul Tarvydas. El sistema prontitud también incluyó un pequeño sistema experto financiero que interpreta estados financieros y modelos.


1987:

Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. Al intentar describir con un mayor ámbito (no solo la comunicación) los atributos de un agente inteligente, la IA se ha expandido a muchas áreas que han creado ramas de investigación enormes y diferenciadas. 



Dichos atributos del agente inteligente son:
  • ·         Tiene actitudes mentales tales como creencias e intenciones.
  • ·         Tiene la capacidad de obtener conocimiento, es decir, aprender.
  • ·         Puede resolver problemas, incluso descomponiendo problemas complejos en otros más simples.
  • ·         Capaz de realizar operaciones más complejas.
  • ·         Entiende. Posee la capacidad de dar sentido, si es posible, a ideas ambiguas o contradictorias.
  • ·         Planifica, predice consecuencias, evalúa alternativas (como en los juegos de ajedrez)
  • ·         Conoce los límites de sus propias habilidades y conocimientos.
  • ·         Puede distinguir a pesar de la similitud de las situaciones.
  • ·         Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías.
  • ·         Puede generalizar.
  • ·         Puede percibir y modelar el mundo exterior.
  • ·         Puede entender y utilizar el lenguaje y sus símbolos.



Podemos entonces decir que la IA posee características humanas tales como el aprendizaje, la adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y la percepción modular del mundo. Así, podemos hablar ya no solo de un objetivo, sino de muchos, dependiendo del punto de vista o utilidad que pueda encontrarse a la IA.


1988:

El grupo de Inteligencia artificial de DEC había distribuido ya 40 sistemas expertos, y había más en camino. Du Pont utilizaba ya 100 y estaban en etapa de desarrollo 500 más, lo que generaba ahorro de diez millones de dólares anuales aprox.
La industria de la IA creció rápidamente, pasando de unos pocos millones de dólares en 1980 a billones de dólares en 1988.
Este mismo año se establecen los lenguajes orientados a objetos estos son lenguajes dinámicos en los que estos objetos se pueden crear y modificar sobre la marcha. Esta programación orientada a objetos (POO) tomo auge a mediados de los años ochenta debido a la propagación de las interfaces gráficas de usuarios, para lo que los lenguajes de programación orientados a objetos están especialmente dotados.
Tratán a los programas como conjuntos de objetos que se ayudan entre ellos para realizar acciones. Entendiendo como objeto a entidades que contienen datos. Permitiendo que los programas sean más fáciles de escribir, mantener y reutilizar.
Los objetos tienen toda la información (atributos) que los diferencia de otros pertenecientes a otra clase. Por medio de unos métodos se comunican los objetos de una misma o diferente clase produciendo el cambio de estado de los objetos. Esto hace que a los objetos se les trate como unidades indivisibles en las que no se separan la información ni los métodos usados en su tratamiento.
Los principales lenguajes de programación orientados a objetos son: Ada, C++, C#, VB.NET, Clarion, Delphi, Eiffel, Java, Lexico (en castellano), Objective-C, Ocaml, Oz, PHP, PowerBuilder, Python, Ruby y Smalltalk.



1989:

Dean Pomerleau en CMU crea ALVINN (un vehículo terrestre autónomo en un Neural Network), que creció en el sistema que conducía un coche de costa a costa Bajo control de la computadora para todos menos cerca de 50 de las 2850 millas.



El Renacimiento Gótico (1990 – Actualidad) Robótica:

En esta época del Renacimiento Gótico de la Inteligencia Artificial, se destacan acontecimientos en donde las maquinas especializadas interactúan con los humanos para poner aprueba la inteligencia artificial vs la inteligencia humana, también se dieron acontecimientos en donde usan la inteligencia artificial para el beneficio de la salud humana.

1996 – 1997:

IBM crea en el año 1996 el Deep Blue una “supercomputador” creado específicamente para enfrentar a las grandes mentes del mundo del ajedrez, Garry Kasparov. Esta supercomputadora de procesamiento paralelo masivo basada en el RS/6000 con 30 nodos, cada uno con 30 microprocesadores P2SC de 120 MHz, ampliados con 480 procesadores eran capaces de evaluar jugadas del ajedrez, contaba con una base de datos relativa que contenían algoritmos de casi 700 000 de los mejores jugadores de ajedrez y era capaz calcular 200 millones de movimientos por segundo.



El primer encuentro se realizó en febrero del 1996 y después del enfrentamiento con un puntaje 4-2 a favor de Garry Kasparov, IBM salió derrotado, pero con deseos de una revancha. En el año siguiente IBM con deseos de sobrepasar la mente humana crea Deeper Blue un supercomputador igual al Deep Blue pero con una versión mejorada del software, en donde los ajustes fueron realizadas por una de las mejores mentes del ajedrez, El señor Joel Benjamin. La revancha de dio en mayo del año 1997 en donde en donde las primeras partidas terminaron en tablas y la sexta partida Garry Kasparov fue derrotado por Deeper Blue.



Los androides ASIMO (Advanced Step Innovative Mobility): La empresa Honda en el año 1980 empezó a desarrollar un prototipo de androide llamado ASIMO en donde se buscaba simular el movimiento y las características del ser humano. en los primeros años se crea el modelo E0, este prototipo era rudimentario ya que este tardaba mucho tiempo en moverse y carecía de parentesco humano; a partir del año 1987 al 1993, Honda desarrolla los modelos E1 al E6 en donde poco estos androides se movían más rápido, tenían características muy similares al ser humano y eran capaces de tener un balance lo cual les permitía subir y bajar escaleras y moverse en un terreno no plano.




1993:
Honda crea los modelos P1, P2 y P3, estos modelos ya eran androides más avanzados muy parecidos a los humanos, piernas brazos y un tronco, también eran prototipos que tenían el tamaño de un humano, podían agarrar objetos con sus extremidades, interactuar con interruptores, poder saltar, empujar objetos, etc. La cual atrajo el interés de millones de personas. 



2000:
Honda presentó la primera versión del popular ASIMO, un robot que medía sólo 1,2 m de altura y había rebajado su peso hasta los 52 Kg. Era capaz de caminar a 1,6 Km/h, podía permanecer en funcionamiento durante 30 minutos seguidos y sus baterías necesitaban de 4 horas para recargarse por completo.



2006:
Se celebró el aniversario con el Congreso en español, 50 años de Inteligencia Artificial. El evento reunió cientos de expertos de todas las disciplinas relacionadas con la Inteligencia Artificial. El evento se dio en el Campus Universitario de Albacete en España en julio del 2006 y fue el evento internacional más importante en lengua castellana que conmemoró los 50 años del nacimiento de la investigación sobre inteligencia artificial, los 50 años de la Conferencia de Dartmouth.




2009:
Se desarrollaron sistemas inteligentes terapéuticos que permiten detectar emociones para poder interactuar con niños autistas. La Universidad de Banderbilt descubrieron, luego de realizar varias experiencias, que los niños le pueden prestar mayor atención a un terapeuta robot que a uno humano. Por esta razón fue que decidieron comenzar a trabajar con Nao, un organismo autónomo, programable y de mediana estatura, creado por la empresa francesa Aldebaran Robotics.





2011:
IBM desarrolló una supercomputadora llamada Watson, que contiene un sistema informático de inteligencia artificial que es capaz de responder a preguntas formuladas en lenguaje natural la cual ganó una ronda de tres juegos seguidos de Jeopardy!, venciendo a sus dos campeones, y ganando un premio de 1 millón de dólares que IBM luego donó a obras de caridad.

Watson responde a las preguntas gracias a una base de datos almacenada localmente. La información contenida en ese base de datos proviene de multitud de fuentes, como, enciclopedias, diccionarios, artículos de noticias, obras literarias, al igual que bases de datos externos, taxonomías, y ontologías.



Conclusión y Bibliografía

Conclusión 

Como se puede notar la inteligencia artificial ha ido desarrollandose poco a traves de los años buscando poder imitar la inteligencia humana para facilitar tareas cotidianas del ser humano y solucionar problemas en la toma de decisiones, a traves de procesamiento de datos.

En la Edad de Ilustracion se puede determinar notablemente el énfasis en el machine learning, que trta más que todo el aprendizaje automático a traves del uso de las computadoras. También se puede determinar el gran desarrollo de nuevas tecnologias informáticas que ayudan al estudio de la inteligencia artificial para el mejoramiento de la vida del ser humano.

En la Edad del Renacimiento Gótico se puede determinar acontecimientos sobre la interaccion entre la inteligencia artificial y la mente humana, tambien se puede determinar la creacion y uso de la robótica para el mejoramiento de la salud mental del ser humano y el indicio que en un futuro se usaran androides para facilitar tareas que se consideran dificiles para el humano en donde se pueda reemplazar al ser humano para disminuir el riesgo de la vida del ser humano.

Bibliografía 

Cronología de la IA. (Abril de 2014). Obtenido de Cronología de la IA: http://cronologiadelaia.weebly.com/
Cronología de la Inteligencia Artificial. (7 de Abril de 2015). Obtenido de Cronología de la Inteligencia Artificial: http://cronologiaepisodio4y5.blogspot.com/2015/04/episodio-5-el-renacimiento-gotico.html
Historia de la Inteligencia Artificial. (18 de Abril de 2014). Obtenido de Historia de la Inteligencia Artificial: https://alexzeroblog.wordpress.com/2014/04/18/historia-de-la-inteligencia-artificial2/
Lenguajes de Programación Orientada a Objetos. (2006 - 2015). Obtenido de Lenguajes de Programación Orientada a Objetos: http://www.larevistainformatica.com/lenguajes-programacion-orientada-objetos.htm
Leòn, C. (8 de octubre de 2014 ). Historia de la Inteligencia Artificial - Evolución y Desarrollo. Obtenido de Historia de la Inteligencia Artificial - Evolución y Desarrollo: https://line.do/es/historia-de-la-inteligencia-artificial/77g/vertical
Rodriguez, D. R. (24 de Agosto de 2011). Aprendizaje Automático - Machine Learning. Obtenido de Aprendizaje Automático - Machine Learning: https://www.dc.uba.ar/materias/aa/2011/cuat2
Rouse, M. (2005 - 2017). Techtarget - Search data center español. Obtenido de Techtarget - Search data center español: http://searchdatacenter.techtarget.com/es/definicion/Aprendizaje-automatico-machine-learning
San, M. (2014). Inteligencia Artificial . Obtenido de Inteligencia Artificial: http://www.mi-web.org/grupos/1143-inteligencia-artificial