INTELIGENCIA ARTIFICIAL

Bibliografía
§  Tirso de Andrés, Homo Cybersapiens. La Inteligencia artificial y la humana, 2002, ISBN 84-313-1982-8
§  Luis Mª Gonzalo, Inteligencia Humana e Inteligencia Artificial, Madrid, 1987. ISBN 84-7118-490-7
§  Víctor Gómez Pin, Entre lobos y autómatas. La causa del hombre, Espasa, Madrid, 2006. ISBN 978-84-670-2303-9
§  Revista "Inteligencia Artificial" Revista Iberoamericana de Inteligencia Artificial. ISSN 1137-3601
§  Adaraga Morales P., Zaccagnini Sancho J. L., Psicología e inteligencia artificial, Editorial Trotta, Madrid, 1994. ISBN 84-87699-77-4




INTELIGENCIA ARTIFICIAL


DEFINICIÓN.- Se denomina inteligencia artificial (IA) a la rama de las Ciencias de la Computación dedicada al desarrollo de agentes racionales no vivos.
Para explicar la definición anterior, entiéndase a un agente como cualquier cosa capaz de percibir su entorno (recibir entradas), procesar tales percepciones y actuar en su entorno (proporcionar salidas), y entiéndase a la racionalidad como la característica que posee una elección de ser correcta, más específicamente, de tender a maximizar un resultado esperado (este concepto de racionalidad es más general y por ello más adecuado que inteligencia para definir la naturaleza del objetivo de esta disciplina).
Por lo tanto, y de manera más específica la inteligencia artificial es la disciplina que se encarga de construir procesos que al ser ejecutados sobre una arquitectura física producen acciones o resultados que maximizan una medida de rendimiento determinada, basándose en la secuencia de entradas percibidas y en el conocimiento almacenado en tal arquitectura.
Existen distintos tipos de conocimiento y medios de representación del conocimiento, el cual puede ser cargado en el agente por su diseñador o puede ser aprendido por el mismo agente utilizando técnicas de aprendizaje.
También se distinguen varios tipos de procesos válidos para obtener resultados racionales, que determinan el tipo de agente inteligente. De más simples a más complejos, los cinco principales tipos de procesos son:
§  Ejecución de una respuesta predeterminada por cada entrada (análogas a actos reflejos en seres vivos).
§  Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles.
§  Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
§  Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos).

§  Razonamiento mediante una lógica formal (análogo al pensamiento abstracto humano).
También existen distintos tipos de percepciones y acciones, pueden ser obtenidas y producidas, respectivamente por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.
Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia como ajedrez de computador y otros videojuegos.
















HISTORIA
La Inteligencia Artificial surge definitivamente a partir de algunos trabajos publicados en la década de 1940 que no tuvieron gran repercusión, pero a partir del influyente trabajo en 1950 de Alan Turing, matemático británico, se abre una nueva disciplina de las ciencias de la información.
Si bien las ideas fundamentales se remontan a la lógica y algoritmos de los griegos, y a las matemáticas de los árabes, varios siglos antes de Cristo, el concepto de obtener razonamiento artificial aparece en el siglo XIV. A finales del siglo XIX se obtienen lógicas formales suficientemente poderosas y a mediados del siglo XX, se obtienen máquinas capaces de hacer uso de tales lógicas y algoritmos de solución.

Punto de inflexión de la disciplina
En su histórico artículo de 1950, Turing propuso que la pregunta «¿puede pensar una máquina?» era demasiado filosófica para tener valor y, para hacerlo más concreto, propuso un «juego de imitación». En la prueba de Turing intervienen dos personas y un computadora. Una persona, el interrogador, se sienta en una sala y teclea preguntas en la terminal de una computadora. Cuando aparecen las respuestas en la terminal, el interrogador intenta determinar si fueron hechas por otra persona o por una computadora. Si actúa de manera inteligente, según Turing es inteligente. Turing, señaló que una máquina podría fracasar y aún ser inteligente. Aun así creía que las máquinas podrían superar la prueba a finales del siglo XX.
De todas maneras esta prueba no tuvo el valor práctico que se esperaba, aunque sus repercusiones teóricas son fundamentales. El enfoque de Turing de ver a la inteligencia artificial como una imitación del comportamiento humano no fue tan práctico a lo largo del tiempo y el enfoque dominante ha sido el del comportamiento racional, de manera similar, en el campo de la aeronáutica se dejó de lado el enfoque de tratar de imitar a los pájaros y se tomó el enfoque de comprender las reglas de aerodinámica. Aunque desde    luego,   el    enfoque   del   comportamiento   humano   y     el

                                                                  
del pensamiento humano siguen siendo estudiados por las ciencias y continúan aportando interesantes resultados a la Inteligencia Artificial, y viceversa.

Disciplinas sobre las que se apoya
La ciencia no se define, sino que se reconoce. Para la evolución de la Inteligencia Artificial las dos fuerzas más importantes fueron la lógica matemática la cual se desarrolla rápidamente a finales del siglo XIX, y las nuevas ideas acerca de computación y los avances en electrónica que permitieron la construcción de los primeros computadores en 1940. También son fuente de la inteligencia artificial: la filosofía, la neurociencia y la lingüística. La lógica matemática ha continuando siendo un área muy activa en la inteligencia artificial. Incluso antes de la existencia de los ordenadores con los sistemas lógicos deductivos.















EVOLUCIÓN
Los juegos matemáticos antiguos, como el de las Torres de Hanói (hacia el 3000 a. C.), muestran el interés por la búsqueda de un modo resolutor, capaz de ganar con los mínimos movimientos posibles.
Cerca de 300 a. C.Aristóteles fue el primero en describir de manera estructurada un conjunto de reglas, silogismos, que describen una parte del funcionamiento de la mente humana y que, al seguirlas paso a paso, producen conclusiones racionales a partir de premisas dadas.
En 250 a. C. Ctesibio de Alejandría construyó la primera máquina autocontrolada, un regulardor del flujo de agua que actuaba modificando su comportamiento "racionalmente" (correctamente) pero claramente sin razonamiento.
En 1315, Ramon Llull tuvo la idea de que el razonamiento podía ser efectuado de maneral artificial.
En 1847 George Boole estableció la lógica proposicional (booleana), mucho más completa que los silogismos de Aristóteles, pero aún algo poco potente.
En 1879 Gottlob Frege extiende la lógica booleana y obtiene la Lógica de Primer Orden la cual cuenta con un mayor poder de expresión y es utilizada universalmente en la actualidad.
En 1903 Lee De Forest inventa el triodo, también llamado bulbo o válvula de vacío.
En 1937 Alan Turing publicó un artículo de bastante repercusión sobre los "Números Calculables", un artículo que estableció las bases teóricas para todas las ciencias de computación, y que puede considerarse el origen oficial de la informática teórica. En este artículo introdujo el concepto de Máquina de Turing, una entidad matemática abstracta que formalizó el concepto de algoritmo y resultó ser la precursora de las computadoras digitales. Podía conceptualmente leer instrucciones de una cinta de papel perforada y ejecutar todas las operaciones críticas de un computador. El artículo fijó los límites de las ciencias de la computación porque demostró que no es posible resolver problemas con ningún tipo de computador. Con ayuda de su máquina, Turing pudo demostrar que existen problemas irresolubles,    de  los  que  ningún  ordenador  será  capaz de obtener  su


solución, por lo que se le considera el padre de la teoría de la computabilidad.
En 1940 Alan Turing y su equipo contruyeron el primer computador electromecánico y en 1941 Konrad Zuse creó la primera computadora programable y el primer lenguaje de programación de alto nivel Plankalkül. Las siguientes máquinas más potentes, aunque con igual concepto, fueron la ABC y ENIAC.
En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo de inteligencia artificial, aun cuando todavía no existía el término.
En 1950 Turing consolidó el campo de la inteligencia artificial con su artículo Computing Machinery and Intelligence, en el que propuso una prueba concreta para determinar si una máquina era inteligente o no, su famosa Prueba de Turing por lo que se le considera el padre de la Inteligencia Artificial. Años después Turing se convirtió en el adalid que quienes defendían la posibilidad de emular le pensamiento humano a través de la computación y fue coautor del primer programa para jugar ajedrez.
En 1951 William Shockley inventa el transistor de unión. El invento hizo posible una nueva generación de computadoras mucho más rápidas y pequeñas.
En 1956 se acuñó el término "inteligencia artificial" en Dartmouth durante una conferencia convocada por McCarthy, a la cual asistieron, entre otros, Minsky,  Newell y Simon. En esta conferencia se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.
En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar al auge de los sistemas expertos pero que no alcanzó muchos de sus objetivos, por lo que este campo sufrió una nueva interrupción en los años noventa.
En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. Al intentar describir con un mayor ámbito (no sólo la comunicación) los atributos de un agente inteligente, la IA se ha expandido a muchas áreas que han creado ramas de investigaciones enormes y

diferenciadas. Dichos atributos del agente inteligente son:
1.   Tiene actitudes mentales tales como creencias e intenciones.
2.   Tiene la capacidad de obtener conocimiento, es decir, aprender.
3.   Puede resolver problemas, incluso particionando problemas complejos en otros más simples.
4.   Entiende. Posee la capacidad de crearle sentido, si es posible, a ideas ambiguas o contradictorias.
5.   Planifica, predice consecuencias, evalúa alternativas (como en los juegos de ajedrez)
6.   Conoce los límites de sus propias habilidades y conocimientos.
7.   Puede distinguir a pesar de las similitudes de las situaciones.
8.   Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías.
9.   Puede generalizar.
10.                     Puede percibir y modelar el mundo exterior.
11.                     Puede entender y utilizar el lenguaje y sus símbolos.
Podemos entonces decir que la IA posee características humanas tales como el aprendizaje, la adaptación, el razonamiento, la autocorrección, el mejoramiento implícito, y la percepción modular del mundo. Así, podemos hablar ya no sólo de un objetivo, sino de muchos, dependiendo del punto de vista o utilidad que pueda encontrarse a la IA.
En la actualidad se está tan lejos de cumplir la famosa prueba de Turing como cuando se formuló: Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas. Como anécdota, muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro»




VENTAJAS
Casi todos sabemos el impacto que tiene la tecnología sobre nuestras vidas, los más jóvenes ni se lo cuestionan, para los demás sólo basta recordarnos que mucho de lo cotidiano ayer no existía. Este lapsus temporal quizás sea inherente a la condición del ser humano, inconsciente de la simbiosis hombre maquina, ya casi perdimos la capacidad de asombro.
Cuando algunos informes científicos hablan de post-humanismo o trans -humanismo, ni siquiera intentamos ver de qué se trata, ahora cuando nos pasan una buena película o alguna receta rica en televisión le prestamos atención, ¿qué ley natural nos lleva a esta selección de prioridades? Será la saturación o la necesidad intrínseca de evadirnos hacia trivialidades lo que provoca esta particular selectividad? De hecho, por uno u otro motivo no somos conscientes de los cambios ni de la dependencia tecnológica que está modificando nuestra forma de pensar y ver las cosas.
Quizás como ejemplo basta recordar nuestra tendencia hacia el desorden, ¿alguno cree que es posible ser desordenado con los archivos de nuestra PC, cuando ya en favoritos no encontramos nada y nos vemos obligados a crear carpetas? ¿Y qué pasa cuando estas carpetas superan el centenar, será necesario clasificarlas en un idioma a fin a los efectos de encontrarlas cuando lo necesitemos? Muchos tendremos una pequeña biblioteca de consulta diaria, casi indispensable, otros verán en las comunicaciones en tiempo real sus ventajas o tal ves habrán sustituido su presencia física en diferentes actividades mediante el acceso on-line. Nuevamente pocos son conscientes de los cambios neuronales que están produciendo. ¿Será Internet una buena forma de mejorar nuestros hábitos fuera de este entorno?
Supongamos que muchos de nosotros nos pica el "bicho de la curiosidad" y sin querer nos damos cuenta que la consulta on-line nos permite conocer lo que nunca hubiésemos imaginado diez años atrás, entonces, a diferencia de los más jóvenes, somos conscientes de la inmensidad del cambio y de la necesidad de buscar amigabilidad en el entorno con el fin de que mejore la comunicación entre lo que "queremos y lo que podemos". Quizás ya tengamos en claro que el tiempo para algunos, la plata para otros y la falta de conciencia para la mayoría sean los responsable de la brecha informática, la misma que mañana generara enormes asimetrías en el conocimiento y en la relación con nuestros pares, muchos mitos se nos caerán.

Quizás   lo  que  suene   como    pensamiento   filosófico   valga  la   pena ejemplificarlo a efectos de entenderlo mejor, ¿alguna ves sonaron con cambiar la historia escrita, o con corregir datos de escritores? Tampoco yo, sin embargo leyendo una obra de historia de 150 años de antigüedad pude confrontar en tiempo real la verosimilitud de los nombres y fechas, gracias a un sitio de genealogía, descubriendo que el autor era terriblemente puntilloso. ¿Cuántas veces pudimos escuchar las dos campanas de una misma información casi en simultáneo, cuántas mentiras y medias verdades descubrimos gracias a este medio, cuantas cosas cambiarán en la vida real, tal vez algún día hasta podamos utilizar nuestro archivo neuronal cuando queramos.




















DESVENTAJAS
Es evidente que para actualizar se necesita de reprogramación de estos (tal vez este sea una de sus limitaciones más acentuadas), otra de sus limitaciones puede ser el elevado coste en dinero y tiempo, además que éstos programas son poco flexibles a cambios y de difícil acceso a información no estructurada. Un robot con el objetivo principal de satisfacer a los seres humanos sería de gran ayuda, pero un robot cuyo objetivo principal sería su propia supervivencia sería muy peligroso. Puesto que pensará mucho más rápidamente y con más precisión que nosotros, usará todos los recursos disponibles para sus propios propósitos, y nosotros estaríamos desamparados. Tal robot debe ser ilegal y debe ser destruido tan pronto como sea detectado.



PROPÓSITO
Los propósitos generales de la inteligencia artificial son las de simular el comportamiento humano a nivel de procesos cognitivos y construir programas inteligentes de la forma más eficiente.



OBJETIVOS
Los investigadores en Inteligencia Artificial se concentran principalmente en los sistemas expertos, la resolución de problemas, el control automático, las bases de datos inteligentes y la ingeniería del software (diseños de entornos de programación inteligente).
Otros investigadores están trabajando en el desafío del reconocimiento de modelos donde se espera un rápido progreso en este campo que comprende la comprensión y la suma del habla, el proceso de imágenes y la visión artificial.
Sus objetivos principales son:
·         Diseñar y construir aplicaciones computacionales de nivel superior.
·         Resolver problemas difíciles.
·         Generar herramientas para la construcción de aplicaciones de inteligencia artificial.
·         Ayudar a los expertos a analizar y diseñar.
·         Generar máquinas que faciliten la construcción de aplicaciones de inteligencia artificial.







ÁREAS DONDE SE APLICAN LA INTELIGENCIA ARTIFICIAL
§  Lingüística computacional
§  Minería de datos (Data Mining)
§  Industriales.
§  Médicas
§  Mundos virtuales
§  Procesamiento de lenguaje natural (Natural Language Processing)
§  Robótica
§  Sistemas de apoyo a la decisión
§  Videojuegos
§  Prototipos informáticos
§  Análisis de sistemas dinámicos.
§  Smart Process Management