Trabajo metodología terminado

October 10, 2017 | Autor: A. Gutierrez Pala... | Categoría: Filosofia De La Mente, Inteligencia artificial
Share Embed


Descripción

carátula

indice

OBJETIVOS
General:
Describir la relación que existe entre la Filosofía de la Mente y la Inteligencia Artificial.
Específico:
Dar a conocer los antecedentes del estudio de la Filosofía de la Mente.
Obtener una clara definición de los conceptos tratados.
Identificar la relación entre la filosofía de la mente e Inteligencia Artificial.


JUSTIFICACIÓN

¿Es físicamente posible que una máquina presente capacidad de abstracción similar a la inteligencia humana? Samir Kanaan nos dice que "En cualquier caso, una de las cuestiones de mayor relevancia y aún no resueltas de la neurociencia actual es saber si existen procesos mentales -como la conciencia, la empatía o la creatividad-, que estén intrínsecamente ligados a la realidad biofísica del sistema nervioso humano y sean por tanto inaccesibles a un sistema artificial". La investigación planteada contribuirá a generar un modelo para entender este importante aspecto en la neurociencia.
Por lo que desarrollar un estudio como el que pretendemos sería el primer paso para entender como pensamos y poder recrear situaciones complejas que nuestro cerebro procesa mediante máquinas.


Limitaciones

Falta de Tiempo.
Falta de Dinero.
Poco Conocimiento del Inglés.


Delimitación

El estudio estará limitado al estudio de la relación entre la filosofía de la mente en las redes neuronales.


Marco Teórico

PRESENTE Y FUTURO DE LOS SISTEMAS INTELIGENTES
En un campo de investigación tan amplio y relativamente joven como la Inteligencia Artificial, no es raro que prevalezcan muchas controversias, tanto científicas como filosóficas. Según lo señala Margaret Goden, actualmente, la mayoría de investigadores en IA utilizan ya sea el modelo clásico o el modelo conexionista. Sin embargo, debido a que ambos modelos tienen debilidades y fortalezas complementarias, hay un creciente interés en los modelos híbridos que tratan de obtener lo mejor de ambos mundos.
Usted podría preguntarse por qué no hubo algún robot que pudo enviarse a reparar los reactores japoneses," dijo Marvin Minsky, que fue pionero en redes neuronales en la década de 1950 y contribuyó con avances significativos a los principios de IA y robótica. "La respuesta es que hubo muchos progresos en la década de 1960 y 1970.
Luego, algo se hizo mal. [Hoy] encontrará estudiantes entusiasmados con robots que juegan baloncesto o fútbol o bailan y le hacen caras graciosas. [Pero] no los están haciendo más inteligentes".
Patrick Winston, director del laboratorio de Inteligencia Artificial del MIT desde 1972 hasta 1997, culpó del estancamiento en parte a la disminución de fondos después del final de la guerra fría y a los intentos tempranos para comercializar la IA. Pero el mayor culpable, dijo, fue la "balcanización mecanicista" del campo de IA, con la investigación enfocada cada vez en especialidades más estrechas tales como redes neuronales o algoritmos genéticos.
Noam Chomsky y Barbara Partee, ambos hicieron contribuciones a la comprensión del lenguaje al considerarlo como un fenómeno computacional, en lugar de algo meramente cultural. Ambos consideraron que, entender el lenguaje humano podría ser la clave para crear máquinas realmente pensantes. "Saber semántica es un requisito previo para que algo pueda llamarse inteligente," dijo Partee. Chomsky se mostró en desacuerdo con investigadores en aprendizaje de máquina que utilizan métodos puramente estadísticos para producir comportamiento que imita algo en el mundo, sin tratar de comprender el significado de ese comportamiento. Chomsky comparó a tales investigadores con científicos que estudian la danza de una abeja al retomar a su colmena, y producen una simulación basada estadísticamente en tal danza, sin intentar comprender por qué la abeja se comporta de esa manera.
"Es una noción muy novedosa de éxito [científico]. No conozco nada igual en la historia de la ciencia," dijo Chomsky
Stephen Cass. Unthinking Machines. Technology Review, Published by MIT, Boston, MA, USA, May 4, 2011


LOS LÍMITES ACTUALES DE LA INTELIGENCIA ARTIFICIAL
"Ahora mismo estamos muy centrados en reconocer patrones, reconocer objetos o el habla, y el reto es no sólo diferenciarlos sino comprenderlos. No sólo reconocer el lenguaje, sino comprender la semántica del lenguaje", destaca Alberto García Serrano.
El reconocimiento de patrones está relacionado con el campo del data mining (o minería de datos), que trata de extraer información útil de toda una masa desestructurada de datos. Twitter es un buen ejemplo de cómo grandes cantidades de información pueden servir para prever tendencias de consumo y otros comportamientos. "Es como si un ser humano tuviera una capacidad de procesamiento brutal y acceso a una cantidad de información brutal", resume así Alberto García Serrano los dos pilares básicos que dan pie a este proceso.
Sin embargo, aun con la gran capacidad de procesamiento que han alcanzado las máquinas y toda la información que está disponible, las limitaciones se dejan notar. En un experimento que hizo Google, pusieron una red neuronal de 16.000 procesadores a ver vídeos de YouTube. Su misión era identificar gatos. Lograron prácticamente duplicar el porcentaje de aciertos obtenido hasta el momento, a pesar de lo cual sólo reconocieron a los mininos un 16% de las veces. El objetivo de la inteligencia artificial en este terreno –aún por alcanzar y precisar– no es sólo que una máquina sea capaz de reconocer un gato o cualquier otra forma en una escena de una película, sino que pueda comprender la escena y darle un significado completo.
La simulación del cerebro es otra de las líneas de investigación vigentes. La propia Unión Europea ha financiado con 1.000 millones de euros el Human Brain Project, un plan para crear un modelo del cerebro humano que permita usarlo para controlar robots y también para hacer pruebas médicas. Esta dicotomía se refleja constantemente cuando se trata de estudiar el sistema nervioso.
Pero No hay ni modelos enteros del sistema nervioso sencillos. Lo primero es que nos falta toda esa información del cerebro real y lo segundo es cómo metes esto en una máquina", apunta Sánchez-Montañés, que matiza que no es viable replicar neurona a neurona un cerebro con la tecnología de hoy en día.
Pablo Varona, profesor de Ciencias de la Computación e Inteligencia Artificial en la EPS de la UAM, especializado en neurociencia computacional, expresa la magnitud de la tarea: "El cerebro es un órgano que tiene miles de millones de neuronas, todas procesando información en paralelo, y la tecnología actual en neurociencia es capaz de registrar sólo unas pocas de esas miles de millones de neuronas"
Se ha logrado que un ordenador realice algo concreto, como jugar ajedrez (Aluce a la Deep Blue), pero somos bastante incapaces de soltarlo en un medio que no conoce y que sea capaz de adaptarse". Por ejemplo le Podemos decir a una máquina: tienes que ir por el suelo, si llegas a una escalera tienes que poner un pie delante, etcétera, pero a lo mejor llega a una piedra y no sabe cómo tiene que actuar".

En ese caso habría que decirle a la máquina absolutamente todas las situaciones que se puede encontrar en el medio, algo inviable hoy en día y por lo que es tan determinante incorporar una capacidad de aprendizaje avanzada, uno de los motivos por los que se intenta simular el cerebro. Esta capacidad de aprendizaje es uno de los puntos más determinantes a la hora de simular el cerebro.
¿Y el futuro? Sánchez-Montañés afirma. "Nuestro mundo va cada vez más hacia el software, es cada vez más virtual. El límite siempre lo va a marcar el hardware principalmente, porque hoy hay algoritmos de inteligencia artificial que tienes que dejar corriendo varios días hasta que llegan a unas conclusiones. Si tuvieras máquinas más potentes, seguro que podías dar con conclusiones más potentes".


LOGROS
WATSON, Del ajedrez a CURAR EL CANCER
Si bien es cierto que el Deep Blue consiguió en 1997 vencer por primera vez al hombre en una partida de ajedrez, no se puede considerar esta máquina estrictamente como inteligencia artificial.
Pero su hermano mayor Watson (llamado así en honor al primer presidente de la compañía), sí que es pura inteligencia artificial. Desvelado en 2006, fue ideado para ser capaz de procesar el lenguaje natural de los hombres, pensar como nosotros y resolver problemas lógicos con los mismos mecanismos mentales que usamos habitualmente. Y lo demostró: IBM puso a su máquina Watson a competir contra los mejores concursantes de la historia de 'Jeopardy', un exitoso concurso televisivo en EEUU que plantea preguntas y juegos lingüísticos a los participantes. Contra todo pronóstico, en el campo de los humanos, Watson venció y se ganó el reconocimiento social y científico del mundo entero.
Actualmente, Watson ya se está utilizando para predecir comportamientos y pautas de consumo en el ámbito comercial, así como para colaborar en el análisis rápido de situaciones humanas de muy diversa índole. Quizás la pata más sobresaliente de Watson sea la que ayuda a curar el cáncer. En ese sentido, y a diferencia de un médico humano, Watson es capaz de analizar en segundos los síntomas del paciente, compararlos con muchos otros casos similares, buscar en la base de datos de tratamientos posibles y predecir con un alto porcentaje de acierto cuál será el mejor tratamiento a aplicar a cada paciente concreto.
Chatbots: a punto de superar el Test de Turing
Todo el mundo están proliferando proyectos de investigación y trabajos individuales que buscan crear el primer software capaz de conversar con un humano de forma natural.
El nombre que reciben estos programas es "chatbot" y existen desde hace ya varios años, siendo usados por sistemas de atención al cliente, páginas web e incluso en redes sociales para automatizar las respuestas a ciertas preguntas. Sin embargo, aquí el reto está en superar un examen, el Test de Turing, que establece que el software debe convencer a más de un 30% de un jurado profesional de que es un humano y no una máquina.
Son muchos los chatbots que han asegurado haber superado este test en los últimos años, el más reciente el mes pasado, cuando Eugene Goostman afirmó haber diseñado un software que convenció al 33% del jurado de su humanidad. Sin embargo, ninguno de estos programas (incluyendo el de Goostman o el software Cleverbot, que convenció al 59% del jurado) puede considerarse aún como inteligencia artificial, ya que suelen valerse de trucos y artimañas para superar ese porcentaje. Por ejemplo, en el caso que hemos mencionado, el chatbot se hacía pasar por un niño, extranjero y con problemas para comprender el idioma de la otra persona, para disimular de este modo sus carencias y fallos de comprensión.


¿Qué significado deberíamos atribuir a los recientes esfuerzos por simular computacionalmente las capacidades cognitivas humanas? Al responder esta pregunta John Searle considera útil distinguir entre lo que llamo IA "fuerte" e IA "débil" o "cauta".
Según la IA débil, el valor fundamental del computador en el estudio de la mente radica en que nos brinda una herramienta muy poderosa. Por ejemplo, nos permite formular y poner a prueba hipótesis de manera más rigurosa y precisa que antes.

Pero de acuerdo a la IA fuerte, el computador no es una mera herramienta en el estudio de la mente; más bien, un computador programado apropiadamente es realmente una mente, en el sentido que se puede decir que los computadores con los programas apropiados pueden literalmente comprender y tener otros estados cognitivos.
Y de acuerdo a la IA fuerte, debido a que el computador programado tiene estados cognitivos, los programas no son meras herramientas que nos permiten poner a prueba explicaciones psicológicas; más bien, los programas son en sí mismos esas explicaciones.


FILOSOFIA DE LA MENTE
La Filosofía de la Mente se ocupa de responder a la relación que existen entre dos elementos importantes como la MENTE y el CEREBRO. Las cuales pueden ser tratadas como 2 cosas diferentes, o las mismas cosas con diferentes nombres, o tal vez la mente emerge del cerebro y todas las variantes que sean causa de misterio.
RENE DESCARTES – PRIMER FILOSOFO DE LA MENTE
En esta Situación, Consideramos al Filosofo frances René Descartes como el primer filósofo de la mente. Quien proponía al ser humano como la persona conformada por 2 entidades: CUERPO Y MENTE, y por medio de su modo metódico llego a dudar incluso de su propia existencia, pero de lo cual nunca había que dudar era de su frase "Pienso, luego existo" Que se enfocaba no en el conocimiento certero del mundo exterior si no del contenido de nuestra mente que aseguraban nuestra existencia. DUALISMO (cuerpo diferente de la mente) - MONISMO (iguales) que hoy en día predomina el MATERIALISMO.
Descartes era dualista sustancialita, debido a que había 2 tipos diferentes de sustancias en el mundo: la extensa y la pensante. El aseguraba que cuando pensaba, conocía la realidad de su propia existencia, pero surgió otro problema importante ¿Cómo puedo llegar a conocer la realidad de las otras mentes? Esto derivo al:
PROBLEMA DE LAS MENTES: Quien llevándolo al extremo él solo conocía su propia existencia junto a sus estados mentales y no podía conocer algo acerca de las otras mentes. Lo que se le denomino SOLIPSISMO, en la cual se centran los filósofos buscando soluciones para el PROBLEMA DE LAS MENTES
LUDWIG WITTGENSTEIN
Ludwig argumento un medio de 'publicación de los estados mentales' denominado LENGUAJE, el cual NO EXISTE una palabra del lenguaje, privado que se refiera a un estado interno y no sea reconocido para otro. Si no que estas deberían EXISTIR en un contexto público para tomar NUESTRAS EXPERIENCIAS y hacerlas públicas para OTRAS MENTES. Y por lo tanto mientras seamos capaces de emitir estas EXPERIENCIAS de nuestros ESTADOS MENTALES, determinara en si la existencia de las OTRAS MENTES.
EL FUNCIONALISMO
Teoría materialista el cual a la mente debe ser comprendida en función de otras cosas. Entonces el funcionalismo reconoce la existencia de relaciones causales entre los estados mentales.
Surge como metáfora computacional que sostiene que la mente es como un programa (software) que corre sobre el Hardware (nuestro cerebro). Así como se puede estudiar el software de una maquina sin conocer para nada la implementación física sobre la cual está funcionando también se pueden estudiar de la misma manera los estados mentales de un individuo sin conocer para nada su biología. De hecho, la teoría funcionalista sostiene que los estados mentales no son algo exclusivos del cerebro: al menos en teoría cualquier máquina suficientemente compleja es capaz de tener vida mental propia.


UNA DE LAS PRIMERAS RAMAS DEL FUNCIONALISMO fue el FUNCIONALISMO de la máquina de TURING.
¿Piensan Las Computadoras? Es la pregunta surgida en torno a la máquina de turing. Debido a la mecánica en como nuestra mente para resolver un problema, atraviesa una serie de PASOS computacionales que podrían ser programados en una computadora. Sin embargo la pregunta en torno a esta teoría es medir el Grado de la respuesta, ¿cómo probar que la computadora alcanzo el estado de CONSCIENCIA? Pues según DESCARTES, sostenía que la clave para detectar la presencia de PENSAMIENTO REAL es la capacidad para responder PREGUNTAS.
ES IMPORTANTE VER LA CONTRAPARTE DE LOS QUE DEFIENDEN EL FUNCIONALISMO
JHON SEARLE
ARGUMENTA su posición con EL EXPERIMENTO DE LA HABITACIÓN CHINA: Esto es, una computadora que se comporta como si comprendiera el idioma chino. Los comprende tan bien que pasa el TEST DE TURING. Sin embargo ahora colocamos a una persona que habla INGLES dentro de la computadora en una pequeña habitación donde recibe los símbolos chinos a través de una ranura, toma estos símbolos los compara con una gran tabla de consulta y luego responde utilizando los símbolos indicados en la tabla. Searle argumenta que esta persona no podría comprender en absoluto lo que está diciendo, solamente estaría manipulando símbolos sin entender su significado.
ENTONCES CONCLUYE QUE ES POSIBLE MANIPULAR EL LENGUAJE DE ACUERDO A SU SINTAXIS, SIN ENTENDER EL SIGNIFICADO DE LO QUE SE ESTA DICIENDO. ESTO ES LO QUE LAS COMPUTADORAS SOLAMENTE HACEN Y ES MUY DIFERENTE A LO QUE HACE LA MENTE HUMANA


Hegel, Georg - Philosophy of Mind
SECTION ONE MIND SUBJECTIVE
For an intelligible unity or principle of comprehension each modification it presents is an advance of development: and so in mind every character under which it appears is a stage in a process of specification and development, a step forward towards its goal, in order to make itself into, and to realize in itself, what it implicitly is. Each step, again, is itself such a process, and its product is that what the mind was implicitly at the beginning (and so for the observer) it is for itself for the special form, viz. which the mind has in that step. The ordinary method of psychology is to narrate what the mind or soul is, what happens to it, what it does. The soul is presupposed as a ready made agent, which displays such features as its acts and utterances, from which we can learn what it is, what sort of faculties and powers it possesses all without being aware that the act and utterance of what the soul is really invests it with that character in our conception and makes it reach a higher stage of being than it explicitly had before.
SUB SECTION A. ANTHROPOLOGY, THE SOUL
(a) The Physical Soul
(a) Physical Qualities
(b) Physical Alterations
(c) Sensibility
(b) The Feeling Soul
(a) The Feeling Soul in its Immediacy
(b) Self feeling
(c) Habit
(c) The Actual Soul
The question of the immateriality of the soul has no interest, except where, on the one hand, matter is regarded as something true, and mind conceived as a thing, on the other. But in modern times even the physicists have found matters grow thinner in their hands: they have come upon imponderable matters, like heat, light, etc., to which they might perhaps add space and time. These 'imponderables', which have lost the property (peculiar to matter) of gravity and, in a sense, even the capacity of offering resistance, have still, however, a sensible existence and outness of part to part; whereas the 'vital' matter, which may also be found enumerated among them, not merely lacks gravity, but even every other aspect of existence which might lead us to treat it as material.
The fact is that in the Idea of Life the self externalism of nature is implicitly at an end: subjectivity is the very substance and conception of life with this proviso, however, that its existence or objectivity is still at the same time forfeited to the away of self externalism. It is otherwise with Mind. There, in the intelligible unity which exists as freedom, as absolute negativity, and not as the immediate or natural individual, the object or the reality of the intelligible unity is the unity itself; and so the self externalism, which is the fundamental feature of matter, has been completely dissipated and transmuted into universality, or the subjective ideality of the conceptual unity. Mind is the existent truth of matter the truth that matter itself has no truth.
A cognate question is that of the community of soul and body. This community (interdependence) was assumed as a fact, and the only problem was how to comprehend it. The usual answer, perhaps, was to call it an incomprehensible mystery; and, indeed, if we take them to be absolutely antithetical and absolutely independent, they are as impenetrable to each other as one piece of matter to another, each being supposed to be found only in the pores of the other, i.e. where the other is not whence Epicurus, when attributing to the gods a residence in the pores, was consistent in not imposing on them any connection with the world. A somewhat different answer has been given by all philosophers since this relation came to be expressly discussed. Descartes, Malebranche, Spinoza, and Leibniz have all indicated God as this nexus. They meant that the finitude of soul and matter were only ideal and unreal distinctions; and, so holding, there philosophers took God, not, as so often is done, merely as another word for the incomprehensible, but rather as the sole true identity of finite mind and matter. But either this identity, as in the case of Spinoza, is too abstract, or, as in the case of Leibniz, though his Monad of monads brings things into being, it does so only by an act of judgment or choice. Hence, with Leibniz, the result is a distinction between soul and the corporeal (or material), and the identity is only like the copula of a judgment, and does not rise or develop into system, into the absolute syllogism.


Inteligencia Artificial Avanzada
1. Introducción a la inteligencia artificial (IA)
1.1. Neuronas y transistores
Empezaremos planteando la pregunta filosófica fundamental, y así podremos dedicar nuestros esfuerzos a aspectos de carácter científico-técnico.
¿Es físicamente posible que una máquina presente capacidad de abstracción similar a la inteligencia humana?
Para responder esta pregunta, hay que tener en cuenta que el cerebro humano es el sistema de reconocimiento de patrones más complejo y eficiente que conocemos. Los humanos realizamos acciones tan sorprendentes como identificar a un conocido entre la multitud o reconocer de oído el solista de un concierto para violín. En el cerebro humano, las funciones cognitivas se realizan mediante la activación coordinada de unas 90.000.000.000 células nerviosas interconectadas mediante enlaces sinápticos. La activación neuronal sigue complejos procesos biofísicos que garantizan un funcionamiento robusto y adaptativo, y nos permite realizar funciones como el procesado de información sensorial, la regulación fisiológica de los órganos, el lenguaje o la abstracción matemática.
La neurociencia actual todavía no aporta una descripción detallada sobre cómo la activación individual de las neuronas da lugar a la formación de representaciones simbólicas abstractas. Lo que sí parece claro es que en la mayoría de procesos cognitivos existe una separación de escalas entre la dinámica a nivel neuronal y la aparición de actividad mental abstracta. Esta separación de escalas supone la ruptura del vínculo existente entre el hardware (neuronas) y el software de nuestro cerebro (operaciones abstractas, estados mentales), y constituye la hipótesis de partida para que los símbolos abstractos puedan ser manipulados por sistemas artificiales que no requieran un substrato fisiológico natural. La posibilidad de manipular expresiones lógicas y esquemas abstractos mediante sistemas artificiales es la que permite la existencia de lo que conocemos como inteligencia artificial. Por supuesto, el cerebro no es el único sistema físico en el que se produce una separación de la dinámica a diferentes escalas. Esta característica también se observa en otros muchos sistemas complejos que presentan fenómenos de autoorganización no lineal. De la misma forma que es posible describir las corrientes oceánicas sin necesidad de referirse al movimiento microscópico de las moléculas de agua, el pensamiento abstracto puede analizarse sin necesidad de referirse la activación eléctrica cerebral a nivel neuronal.
En cualquier caso, una de las cuestiones de mayor relevancia y aún no resueltas de la neurociencia actual es saber si existen procesos mentales -como la conciencia, la empatía o la creatividad-, que estén intrínsecamente ligados a la realidad biofísica del sistema nervioso humano y sean por tanto inaccesibles a un sistema artificial.
Otro aspecto importante en el funcionamiento del cerebro humano es el papel que tiene la experiencia y el aprendizaje. El cerebro humano actual no es solo resultado de una evolución biológica basada en alteraciones genéticas, sino también del conjunto de técnicas y conocimientos que la humanidad ha ido acumulando con el tiempo. Aspectos como la cultura o el lenguaje, transmitidas de generación en generación, también determinan la forma en la que se establecen patrones de activación neuronal en nuestro cerebro, y por lo tanto, contribuyen a la emergencia de procesos de abstracción en los que se basan áreas como las matemáticas o la literatura. A nivel biológico, existen diversos mecanismos que permiten la existencia de procesos de activación neuronal dependientes de la experiencia previa y del entrenamiento. El mecanismo principal es conocido como plasticidad sináptica, un fenómeno por el que las conexiones sinápticas entre neuronas modulan su intensidad en función de la actividad que hayan experimentado previamente. De esta forma, cuanto más veces se active un cierto canal de activación neuronal, más fácil resultará activarlo en el futuro e integrarlo a nuevos procesos cognitivos de mayor complejidad.
Pese a que se han producido numerosos avances en el campo de la neurociencia desde el descubrimiento de la neurona por Santiago Ramón y Cajal a finales del siglo XIX, las tecnologías actuales están muy lejos de poder diseñar y fabricar sistemas artificiales de la complejidad del cerebro humano. De hecho, a día de hoy estamos lejos de reproducir de forma sintética las propiedades electroquímicas de la membrana celular de una sola neurona. Pero como hemos comentado anteriormente, la manipulación de conceptos y expresiones abstractas no está supeditada a la existencia de un sistema biológico de computación. En definitiva, un ordenador no es más que una máquina que procesa representaciones abstractas siguiendo unas reglas predefinidas. Un sistema de inteligencia artificial requiere de una secuencia finita de instrucciones que especifique las diferentes acciones que ejecuta la computadora para resolver un determinado problema. Esta secuencia de instrucciones constituye la estructura algorítmica del sistema de inteligencia artificial. En ocasiones, los sistemas de IA resuelven problemas de forma heurística mediante un procedimiento de ensayo y error que incorpora información relevante basada en conocimientos previos. Cuando un mismo problema puede resolverse mediante sistemas naturales (cerebro) o artificiales (computadora), los algoritmos que sigue cada implementación suelen ser completamente diferentes puesto que el conjunto de instrucciones elementales de cada sistema son también diferentes. El cerebro procesa la información mediante la activación coordinada de redes de neuronas en áreas especializadas (cortex visual, cortex motor, etc.). En el sistema nervioso, los datos se transmiten y reciben codificados en variables como la frecuencia de activación de las neuronas o los intervalos en los que se generan los potenciales de acción neuronales. El elevado número de neuronas que intervienen en un proceso de computación natural hace que las fluctuaciones fisiológicas tengan un papel relevante y que los procesos computacionales se realicen de forma estadística mediante la actividad promediada en subconjuntos de neuronas.
En un sistema IA, en cambio, las instrucciones básicas son las propias de una computadora, es decir operaciones aritmetico-lógicas, de lectura/escritura de registros y de control de flujo secuencial. La tabla 1 describe las diferencias fundamentales entre sistemas de inteligencia artificial y natural en las escalas más relevantes.

2. Recomendadores y agrupamientos
Actualmente la gran mayoría de instrumentos de medida de cualquier tipo de magnitud (desde magnitudes físicas como longitud, temperatura, tiempo hasta magnitudes de comportamiento como patrones de búsqueda y navegación en la web y preferencias de compra online, pasando por herramientas comunes como las cámaras digitales) son capaces de volcar sus mediciones a algún formato digital; de esa forma todos esos datos pueden estar fácilmente disponibles para su tratamiento. En este momento el problema no es disponer de datos, pues se dipone en gran abundancia de ellos; el reto es conseguir extraer información a partir de los datos, o sea, darles un sentido y extraer conclusiones útiles de ellos. Esta tarea se conoce por el nombre de minería de datos (data mining).
Uno de los principales retos en el procesamiento de datos es el de integrarlos procedentes de múltiples fuentes, para así dotar de diferentes perspectivas al conjunto de estos, lo que permite extraer información más rica. Esta tendencia se da en casi todas las áreas: recopilación de la actividad de los usuarios en un sitio web; integración de sensores de temperatura, presión atmosférica y viento en el análisis meteorológico; uso de diferentes datos financieros y bursátiles en la previsión de inversiones; entre otros ejemplos.
La tarea de integración de múltiples fuentes de datos recibe el nombre de filtrado colaborativo (collaborative filtering). De la misma forma que en las ciencias experimentales es fundamental utilizar un instrumental adecuado y unas unidades consistentes, un aspecto clave en cualquier tarea de procesamiento de datos es el uso de métricas, o sea medidas de distancia, adecuadas para el tipo de datos que se está tratando. Una de las aplicaciones en las que se centra este módulo es la de los recomendadores. Un recomendador es un sistema que recoge y analiza las preferencias de los usuarios, generalmente en algún sitio web (comercios, redes sociales, sitios de emisión o selección de música o películas, etc.). La premisa básica de los recomendadores es que usuarios con actividad o gustos similares continuarán compartiendo preferencias en el futuro. Al recomendar a un usuario productos o actividades que otros usuarios con gustos similares han elegido previamente el grado de acierto acostumbra a ser más elevado que si las recomendaciones se basan en tendencias generales, sin personalizar.
La tarea de encontrar a los usuarios más afines y utilizar esta información para predecir sus preferencias puede inscribirse en una tarea más general que recibe el nombre de agrupamiento (clustering), y que consiste en encontrar la subdivisión óptima de un conjunto de datos, de forma que los datos similares pertenezcan al mismo grupo.
2.1. Métricas y medidas de similitud
Una métrica es una función que calcula la distancia entre dos elementos y que por tanto se utiliza para medir cuán diferentes son. Existen varias formas de medir la distancia entre dos elementos, y elegir la métrica adecuada para cada problema es un paso crucial para obtener buenos resultados en cualquier aplicación de minería de datos.
En este subapartado utilizaremos la distancia euclídea y estudiaremos una medida de similitud habitual, la correlación de Pearson. Por último, una forma habitual y segura* de convertir una función de distancia d en una función de similitud s es la siguiente:



FILOSOFÍA DE LA MENTE
Podría decirse que es la característica que define quienes somos. Es aquello en lo que pensamos cuando decimos "Yo soy".
Muchos afirmamos que sin ella no desearíamos seguir viviendo. Y por cierto nuestra existencia dejaría de tener sentido: es lo que llamamos mente.
De todos los misterios de universo tal vez el más intrigante sea el que reside en el centro de nuestro propio ser: la mente. Pero, ¿qué es? ¿Una pequeña persona en mi cabeza que piensa por mí? ¿Una linterna que cuando se enciende ilumina brevemente la nada y luego vuelve a apagarse? ¿Es, en efecto, la realidad en si misma? ¿De dónde proviene? ¿Por qué existe? ¿Cómo funciona? ¿Y cómo se relaciona con el cuerpo que aparentemente la contiene?
LA FILOSOFÍA DE LA MENTE
La Filosofía de la Mente es una rama de la filosofía que trata los problemas conceptuales que surgen al estudiar la mente. En especial, los filósofos de la mente estudian la naturaleza de los fenómenos mentales tales como: la consciencia, la sensación, la percepción, el razonamiento, el deseo, la intencionalidad, la decisión, las creencias, la imaginación y la memoria.
Explora la relación que existe entre el mundo físico y el mundo mental, entre la mente y el cerebro, y temas relacionados como la voluntad libre, el determinismo y la causalidad mental.
Buscan responder las preguntas básicas sobre la mente comenzando por su naturaleza esencial.
EL PROBLEMA DE LA MENTE
Las dos preguntas centrales de la filosofía de la mente son
1. ¿Cuál es la naturaleza de la mente?
2. ¿Cómo encaja la mente dentro de la estructura de causalidad de la realidad?
La Filosofía de la Mente se ocupa de preguntas como ¿Cuál es la relación entre la mente y el cerebro? ¿son dos cosas diferentes? ¿o es una misma cosa con 2 nombres diferentes? ¿o es que de alguna manera la mente emerge del cerebro? ¿Y como es que los procesos neurológicos dan lugar a la conciencia? ¿De donde deviene el contenido de los estados mentales como las creencias y los deseos?
UNA OBSERVACIÓN DEL SEGUNDO WIITGENSTEIN
Una de sus observaciones más típicas es: ¿cuál es la diferencia entre que yo levante el brazo y que mi brazo se eleve como consecuencia de que alguien o un imán lo mueva hacia arriba? ¿qué diferencia hay entre el hecho de que yo eleve mi brazo o que este se eleve por si solo?
Lo que ambos tienen en común es que el brazo se eleva. Lo que es diferente es la voluntad interna y, luego, habla de la idea cartesiana de que la persona está compuesta por la parte mental interna y la otra parte en la que el cuerpo se mueve hacia arriba. Pero lo interesante de este punto es que es muy difícil mantener un tipo de división radical cuando se ve un hecho como el brazo que se eleva porque uno tiene el concepto de levantar el brazo que es una acción que incluye algo mental. No existe ahora una división entre el cuerpo y la mente. De alguna manera ambos conforman una sola cosa.


EL PROBLEMA DEL LIBRE ALBEDRÍO O LA VOLUNTAD LIBRE
Una pregunta fundamental que toda posición materialista debe enfrentar es si todo es físico y se comporta de acuerdo a leyes físicas entonces ¿nuestras acciones no estarían previamente determinadas? En otras palabras, ¿acaso esto no significa que no tenemos voluntad libre? Si vemos el comportamiento de otros como causalmente determinado por factores externos a ellos, entonces ¿cómo es posible hacer que alguien sea responsable de sus acciones? Cualquier tipo de determinismo atenta contra la libertad de la voluntad y, por lo tanto, elimina la idea de responsabilidad moral.
De acuerdo a Nagel: "Ninguna teoría que deje la consciencia de lado puede pretender ser una teoría de la mente y no es posible hacer un análisis de la consciencia en términos no mentales, consecuentemente ninguna posición materialista de lo mental puede tener éxito."
LA MAQUINA DE TURING
Tener una mente es tener ciertas capacidades o habilidades como la capacidad de pensar o la capacidad de sentir. Entonces la pregunta es ¿cómo es que el cerebro da origen a estas capacidades?
De acuerdo con un paradigma la mente es un tipo de computadora. En cambio, el paradigma opuesto, el denominado paradigma conexionista o de red neural, sostiene que la estructura computacional de la mente es una red de nodos interconectados con diversos estados de excitación y diversas conexiones inhibitorias y excitatorias.
Una de las primeras ramas del funcionalismo fue el funcionalismo de la máquina de Turing. Una máquina de Turing es la representación abstracta del funcionamiento de una computadora recibió su nombre en reconocimiento del matemático y lógico inglés Alan Turing que sostenía que el comportamiento humano puede ser entendido como el funcionamiento de una computadora.
¿PIENSAN LAS COMPUTADORAS?
Si pensar parece ser en términos generales la manipulación de símbolos, entonces tal vez seamos máquinas de Turing, tal vez seamos computadoras. Entonces es posible que la manera de entender nuestra mente sea pensarla en función de un programa de computación. Si me dieran un problema para resolver de aritmética elemental o de filosofía cualquier tipo de problema, mi mente atravesará una serie de pasos computacionales que, en principio, podrían estar programados en una computadora. Y entonces tendríamos una teoría completa sobre cómo funciona nuestra mente cuando resuelve problemas.
Si teóricamente es posible crear una máquina que piense la pregunta que surge entonces es: ¿Cómo sabemos si lo hemos logrado? ¿Cómo podemos comprobar que esta computadora super-inteligente alcanzó el estado de consciencia?
Descartes, había sostenido que la clave fundamental para detectar la presencia del pensamiento real es la capacidad para responder preguntas.
Según Descartes: "Pues, se puede concebir que una máquina este hecha de tal manera que profiera palabras pero no que ordene las palabras de diversos modos para responder según el sentido de cuanto en su presencia se diga cómo pueden hacer aun los más estúpidos de los hombres"
TEST DE TURING
Para determinar si una máquina es consciente o no, Turing propuso una prueba sencilla. La idea del test de Turing es que hay una máquina en una habitación, una persona en otra habitación y una segunda persona (un juez) en una tercera habitación. El juez se comunica tanto con la máquina como con la persona a través de un teletipo, como decía él, o digamos de una computadora. Entonces en lugar de preguntarnos si la máquina puede pensar deberíamos preguntarnos si el juez puede diferenciar entre la máquina y la persona. Este es el Test de Turing.
Resulta claro que las máquinas poseen estados representacionales, son capaces de acumular datos incluso pueden incorporarlos autónomamente como en el caso de los robots equipados con sensores capaces de procesar esa información y actuar en consecuencia. Pero ¿es ello suficiente para conformar el pensamiento?
Si bien los defensores del funcionalismo dirían "sí", el filósofo norteamericano Jhon Searle respondería con un rotundo "no".
EXPERIMENTO DE LA HABITACIÓN CHINA
Para argumentar su posición elaboró el experimento de la habitación china.
Supongamos que hemos creado un computadora que se comporta como si comprendiera el idioma chino. Es decir, recibe los símbolos chinos y da respuestas coherentes. De hecho, esta computadora funciona de manera tan convincente que pasa el test de Turing sin problema alguno. En otras palabras parece comprender el idioma chino. Ahora imaginemos que colocamos una persona de habla inglesa dentro de la computadora en una pequeña habitación donde recibe los símbolos chinos a través de una ranura en la puerta. Toma estos símbolos los compara con una gran tabla de consulta que es lo que la computadora hace esencialmente y luego responde utilizando los símbolos indicados en la tabla. Searle argumenta que esta persona no podría comprender en absoluto lo que está diciendo, solamente estaría manipulando símbolos sin entender su significado.
Searle apunta que es posible manipular el lenguaje de acuerdo con sus características puramente sintácticas fonológicas u ortográficas, sin entender el significado de lo que se está diciendo. Él considera que las computadoras hacen solamente eso, que lo que las computadoras hacen es esencialmente diferente a lo que hace la mente humana.


¿Es posible simular el cerebro humano?
¿Pueden los avances producidos en computación, unidos a un mejor conocimiento de cómo funcionan los procesos cerebrales permitirnos construir una simulación del cerebro humano?
La respuesta es afirmativa, al menos así piensa Luis Bettencourt, investigador en Los Alamos National Laboratory y profesor en el Santa Fe Institute, en una entrevista publicada el 9 de mayo en Scientific American.
El córtex visual humano opera a una velocidad de un petaflops. Un petaflops es una unidad que se usa para medir el rendimiento en computación de operaciones en coma flotante, que son aquellas operaciones en las que se requiere realizar operaciones aritméticas con números reales extremadamente grandes y pequeños. El acrónimo para expresar la operaciones en punto flotante por segundo es FLOPS (Floating poitn operations per seconds). Las operaciones en las que se usan unidades superiores a un FLOPS se expresan en el Sistema Internacional de unidades mediante prefijos como mega, giga, tera. En concreto, un petaflops es 1015, aunque existen unidades mayores todos ellos con nombres de golosinas (zettaflops 1021 o yottaflops 1024). Supercomputadores como Tianhe 1A de China (2,5 peta) o Blue Waters, desarrollado por la Universidad de Illiniois, pueden tener un rendimiento máximo de 10 petaflops y un rendimiento sostenido de un petaflops, por lo que en principio, se dispondría del potencial de cómputo necesario para simular los procesos cerebrales.
El problema, sostiene Bettencourt, es que las simulaciones que se centran en describir los procesos de sinapsis fracasan debido a la complejidad de los fenómenos que tienen que describir y a la cantidad de energía necesaria para realizar las simulaciones. Lo que el cerebro puede hacer usando 20 o 30 vatios, un supercomputador que trabaje en petaescalas necesita megavatios, así que esta sería una solución energéticamente poco eficiente. Por lo tanto, el intento de simular los disparos neuronales individualmente fracasará en su intento de simular un sistema tan complejo.
¿Qué significa "modelar el cerebro"? ¿La simulación de inteligencia es inteligencia?. Este es un problema que viene de lejos, tan lejos como el test de Turing para detectar inteligencia en programas. Lo que se argumenta es que una función o un proceso simulado, por muy bien simulado que esté, no es una función o un proceso genuino. La simulación de un formula 1 de cartón piedra, por muy bien hecha que esté, dudo mucho que pueda ayudar a Fernando Alonso a ganar algún premio. De ahí que simular las funciones del cerebro, simular la inteligencia no nos aproximará a la inteligencia misma, nos dicen los filósofos que creen que las funciones y procesos cerebrales dependen de algo más que simples algoritmos matemáticos.
Jack Copeland (Inteligencia artificial. Alianza universidad) ofrece una solución a estas objeciones. La solución pasa por distinguir entre lo que podíamos denominar Simulación1, que sería un tipo de simulación simple en la que no se recogen características esenciales de aquello que se quiere simular; y Simulación2, que es aquella que reproduce exactamente lo simulado.

Si los programas de investigación que pretenden simular el cerebro quieren alcanzar un nivel de Simulación2, deben ser arquitecturas complejas en las que se reproduzcan en sus modelos las peculiaridades biológicas inherentes al cerebro. En esta línea de investigación resultan especialmente interesantes los trabajos realizados en el campo de la neurosemántica por C. Eliasmith o D. Ryder. Pero eso será una historia para otro día.
La inteligencia Artificial Aún no está aquí.
Sigo leyendo y leyendo y por todos lados no hago más que encontrar un entusiasmo desbocado hacia las promesas de la Inteligencia Artificial. Muchísimos investigadores siguen asumiendo acríticamente las tesis de la IA fuerte, a saber, la posibilidad de crear en un plazo muy corto de tiempo una mente mecánica, en principio idéntica, pero inmediatamente después superior a la humana. A esta idea la acompañan felizmente ocurrencias como la del mind uploading (poder descargar nuestra mente en una memoria electrónica), la de que vivimos en una simulación informática del tipo Matrix, o la grave preocupación acerca de qué harán con la humanidad estos emergentes seres superiores cuando lleguen: ¿nos exterminarán al vernos como una amenaza o nos dejarán como mascotas? Si uno estudia detenidamente los logros reales de la ingeniería computacional de los últimos años comprueban con mucha facilidad que tal entusiasmo o temor son absolutamente infundados. No quiero ser el clásico pensador conservador vilipendiado por la historia que niega grandes avances de la ciencia. Nada más lejos de mi intención pasar por un Belarmino o un Wilberforce, pero considero que es mi deber intelectual sacar la falsedad a la luz. Que conste que a nadie le gustaría más que a mí que tales promesas fueran ciertas y posibles: he fantaseado miles de veces con hablar de metafísica mientras juego al ajedrez con HAL 9000.
Vamos a exponer en siete puntos las críticas que se pueden plantear a estas fantasiosas ideas:
1. Se hace demasiado hincapié en el rápido aumento de la capacidad de computación. Constantemente leemos noticias en las que se nos presenta un nuevo transistor del tamaño de una millonésima de millonésima de algo, capaz de realizar tropecientos millones de millones de operaciones por milisegundo. Estos avances están muy bien y, seguramente, son condiciones de posibilidad para crear una mente electrónica que iguale la capacidad de cómputo de la mente humana, pero con ellos se olvida que mucho más importante que poder calcular cantidades infinitas es saber qué pretendemos calcular con ello. Vale, tenemos un supercomputador impresionante pero, ¿qué hacemos con él? ¿Cómo emulamos el hecho de que yo recuerde con nostalgia a mi abuela con millones de cómputos por milisegundo? Esta es la cuestión, y para ella no hay todavía respuesta alguna.
2. Estamos lejísimos de comprender el funcionamiento biológico del cerebro. Vamos sabiendo cada vez más cosas de la química neuronal pero todavía estamos a años luz de saber bien cómo funciona. Lo he dicho en muchas ocasiones: tenemos más de cien mil millones de neuronas altamente interconectadas que se comunican entre sí por impulsos eléctricos y químicos. Pues bien, si solo somos eso, no somos lo suficiente. Si solo somos flujo de información, no somos nada. La información sirve para hacer cosas, para activar procesos. Seguramente que necesito información que viaje por mis neuronas para crear la imagen de un tigre en mi mente, pero, aparte de esa información, necesito procesos físico-químicos que generen el miedo que siento ante la visión del tigre, y eso no es solo información, es un hecho físico. Y no tenemos ni la más remota idea de cómo un conjunto de redes neuronales genera un sentimiento, ni la más remota: ¿por qué entonces este entusiasmo en que vamos a conseguir copiar la mente en unos pocos años?
3. Una computadora o, un sistema universal de símbolos en términos de Herbert Simon, es únicamente eso: un sistema que transforma unos símbolos en otros según unas determinadas reglas. ¿Por qué presuponemos que un sistema que transforma símbolos va a ser capaz de realizar ciertos procesos físico-químicos como pueden ser los sentimientos? Yo puedo hacer un programa de ordenador que simule bastante bien el funcionamiento de las glándulas mamarias de una vaca, pero, ¿me dará ese ordenador leche? No, porque la tesis de la independencia de sustrato que muchos ingenieros sostienen ingenuamente no es plenamente cierta. Es posible que podamos construir una máquina de Turing en una cantidad muy amplia de sustratos físicos, pero es que una máquina de Turing solo puede calcular, no dar leche. O dicho de otro modo más claro: a lo mejor, es posible que algún tipo de neurotransmisor o de sustancia química del cerebro tenga una gran relación con los estados mentales. Por ejemplo, es posible que la dopamina, la adrenalina o el glutamato tengan que ver con lo que siento o pienso cuando siento o pienso. Estos compuestos tienen unas propiedades químicas únicas que es posible que sean imposibles de emular a no ser por otros compuestos muy similares. ¿Qué razones hay para pensar que un transistor de silicio puede hacer lo mismo que una molécula de serotonina? Seguramente que el pensamiento humano dependa mucho de las propiedades químicas de los componentes del cerebro, propiedades éstas de las que carecen por completo los componentes electrónicos de un ordenador. La independencia de sustrato podrá cumplirse para realizar todo tipo de cálculos, pero no para generar propiedades físicas. Para hacer fuego, necesito madera o algún elemento combustible; para hacer una mente, necesito algo que se parezca físicamente mucho a un cerebro.
4. Clarifiquemos en el siguiente esquema la confusión habitual:

Los ingenieros de IA tienden a confundir el funcionamiento de un ordenador con los resultados físicos del funcionamiento del cerebro. Suelen afirmar que cuando un ordenador computa (manipula símbolos) está pensando, cuando no hay razón alguna para considerarlo así. Es posible que el cerebro humano realice computaciones, pero eso no es tener un estado mental. Los estados mentales son, en cualquier caso, los resultados de las computaciones, no las computaciones mismas. De nuevo, si yo veo un tigre, es probable que mi cerebro haga computaciones que fluyan a través de los axones de mis neuronas, pero el miedo (el estado mental) y la acción de salir huyendo (mi conducta) no son computaciones, son sucesos físicos (sentir miedo un proceso, fundamentalmente, químico y huir, fundamentalmente, un proceso mecánico). Hay que tener en cuenta que las computaciones de mi cerebro suceden a nivel inconsciente, mientras que mis estados mentales son conscientes. Cuando yo hablo no pienso a nivel consiente que detrás del sujeto va el predicado o que antes de un sustantivo he de poner un artículo. Eso lo hace mi cerebro por mí y mi mente consciente solo tiene acceso al resultado. Precisamente, el resultado es lo que solemos entender por mente.
5. Una vía de investigación algo más interesante es lo que se ha llamado programa conexionista y del que Pentti Haikonen es hoy uno de sus más célebres representantes. El plan es que en vez de intentar diseñar un maravilloso software capaz pensar, sentir y ser consciente de sí, mejor empezar por debajo: intentemos emular mecánicamente los elementos físicos del sistema nervioso, comenzando por los más simples, y sigamos avanzando hacia arriba a ver lo que pasa. Creo que es el camino correcto, pero dados los frutos que ha conseguido hoy en día, que son notables pero que van despacito, no es justificado ningún tipo de optimismo acerca tener a HAL 9000 en las próximas décadas.
6. La humanidad ha tendido históricamente a comparar al ser humano con el último avance tecnológico del momento. Se ha pensado que el cerebro era un sistema hidráulico o una centralita telefónica, y ahora pensamos que el cerebro es un ordenador cuando, insistimos, no hay evidencia disponible para sustentar tal afirmación de un modo completo. Yo pienso que el cerebro tiene componentes cuyo funcionamiento es similar al de un computador, pero nos falta mucho para que la metáfora sea perfecta. Quizá, en un futuro, sea posible fabricar computadores que se asemejen más, pero los actuales no son, ni de lejos, similares a la mente.
7. A la Inteligencia Artificial le ha ido mucho mejor cuando ha avanzado sin tener en mente el objetivo de simular al ser humano, que cuando lo ha tenido. El ordenador personal que utilizo para escribir ahora mismo es un instrumento maravilloso. Me sirve para reproducir música, vídeo, hacer operaciones matemáticas complejas, editar fotografías, etc. Que yo sepa, ningún humano tiene esas cualidades y, sin embargo, son fabulosas. Mi ordenador se fabricó sin la intención de ser un humano y así funciona maravillosamente bien. Quizá la Inteligencia Artificial deba seguir su camino sin la obsesión de emular al humano. Es más, quizá así será cuando consiga cosas incluso mucho mejores que un sapiens.


Buscando el "proyector interno" de nuestra mente
Hay que diferenciar el hecho de ver un objeto que directamente tengo frente a mis ojos y el hecho de recordarlo mentalmente una vez que ha desaparecido de mi campo de visión. Cuando veo algo directamente el objeto se presenta en mi mente directamente, mientras que cuando lo recuerdo tengo que reconstruirlo. Usando un lenguaje preciso habría que distinguir entre representación (el objeto se me vuelve a presentar) y "presentación" (cuando el objeto aparece directamente ante mí). En el primer caso, la representación mental tiene que tener algún tipo de similitud, más allá de la meramente funcional, con el objeto que previamente se me ha presentado. Si yo recuerdo una manzana que vi hace unas horas en el supermercado, la imagen mental que se representa en mi mente debe parecerse visualmente a la que vi, por lo que mi cerebro debe reconstruir visualmente esa manzana; y debe hacerlo sin utilizar los ojos, o la parte del cerebro dedicada a la visión directa (ya que yo puedo recordar la manzana mientras estoy viendo directamente otros objetos).
Este proceso de reconstrucción mental trae de cabeza a los neurólogos y demás investigadores dedicados a la mente. De primeras, porque no encontramos casi nada en el cerebro que parezca tener el papel de reconstructor de imágenes. Se busca pero, a día de hoy, no hemos encontrado ese "proyector interno" que hace que se repita en mi mente la imagen de la manzana que contemplé. Y de segundas, porque tener un reconstructor de imágenes (o mapas según la terminología de Edelman) implica necesariamente otra figura: la del intérprete. Comprender o interpretar el significado de una imagen no puede consistir en, sencillamente, repetirla en la cabeza. Comprender una manzana no es únicamente volver a verla, sino describir sus propiedades y funciones. Conocer algo no es repetirlo, es interpretarlo. Y esa figura del intérprete tampoco parece encontrarse con claridad entre la inimaginablemente compleja maraña de redes neuronales que pueblan nuestro cerebro.
Por ejemplo, podríamos imaginar que, al recordar la manzana, una red neuronal se activa formando una estructura homóloga a la de la manzana. Las neuronas se encienden "dibujando" el esquema de la fruta en cuestión. Para que esto fuera eficaz necesitaríamos una segunda estructura neuronal que actuara como una especie de "videocámara" que contemplara el "dibujo" y que transmitiera esa información a una tercera estructura que se dedicara a interpretar o comprender lo que es realmente una manzana. Esta explicación puede parecer poco convincente, sobre todo por el segundo grupo neuronal descrito: "la videocámara". ¿Cómo puede existir algo como un sistema de visualización interno que detecta la posición de las neuronas? ¿Hay algo así como unos "ojos" que pueden ver mapas neuronales dentro de nuestro cráneo? Una posible solución estriba en pensar que las neuronas que se encienden "dibujando" el esquema de la manzana no dibujan realmente una manzana, sino que únicamente, dan una descripción funcional.
Vamos a explicar qué significa "descripción funcional". Mi corteza visual puede detectar sin problemas que algo es rojo, que algo es redondo y que tiene un rabito con una hoja verde en su parte superior. Podemos imaginar una serie de grupos de neuronas, encargados cada uno de ellos de detectar por separado cada una de las características que constituyen una manzana. Cada grupo de neuronas-detectores manda potenciales de acción a un segundo grupo que se activaría si le llegan dichos potenciales. Así, si el grupo de "detectar rojo", el grupo de "detectar redondo" y el de "rabito con hoja" se activan, un segundo grupo se activaría como diciendo "efectivamente, estamos ante una manzana". Como vemos, estas estructuras neuronales no tienen ningún parecido en su ordenación estructural con la forma de una manzana (de hecho cada grupo podría estar ubicado en partes lejanas del cerebro), no son un "dibujo" de una manzana, pero sirven para que el cerebro se dé cuenta de que está ante una manzana. Eso sería una descripción funcional.
Esta explicación encaja muy bien con lo que sabemos del funcionamiento de las neuronas. Muchos neurólogos hablan de que el cerebro "detecta patrones", es decir, detecta información que le sirve para identificar lo que tiene delante. En el ejemplo, detecta el "patrón-manzana". Y así funcionan a grosso modo nuestros sistemas informáticos encargados, por ejemplo, de reconocer rostros en las fotos de los teléfonos móviles. Pero el maldito problema sigue sin solucionarse del todo porque cuando yo recuerdo la manzana "veo" en mi mente algo cuya forma se parece mucho a una manzana. O más rádicalmente, cuando sueño, "veo imágenes" de objetos con relativa claridad. Volvemos al principio: en el cerebro tiene que existir tal "proyector interno" que haga que yo vuelva a ver lo que antes había visto con mis ojos. Y esta representación no puede tener solo una similitud funcional con el objeto, debe tener la misma forma, los mismos colores y demás características. En el cerebro tiene que haber algo que repita lo que hacen mis ojos, pero sin los ojos.


INTELIGENCIA ARTIFICIAL
DEFINICIÓN
La inteligencia arti cial es una disciplina académica relacionada con la teoría de la computación cuyo objetivo es emular algunas de las facultades intelectuales humanas en sistemas arti ciales. Con inteligencia humana nos referimos típicamente a procesos de percepción sensorial (visión, audición, etc.) y a sus consiguientes procesos de reconocimiento de patrones, por lo que las aplicaciones más habituales de la IA son el tratamiento de datos y la identi cación de sistemas.
ORIGEN
El origen de la inteligencia artificial como disciplina de investigación se remonta a 1956, en una conferencia sobre informática teórica que tuvo lugar en el Dartmouth College,en la cual se acuñó este término. A esta conferencia asistieron algunos de los científicos que se encargaron de desarrollar la disciplina y dotarla de un marco teórico, Entre los asistentes estaban John McCarthy, Marvin Minsky, Allen Newell y Herbert Simon.
En la conferencia, A. Newell y H. Simon presentaron un trabajo sobre demostración automática de teoremas al que denominaron Logic Theorist. El Logic Theorist fue el primer programa de ordenador que emulaba características propias del cerebro humano, por lo que es considerado el primer sistema de inteligencia arti cial de la historia. El sistema era capaz de demostrar gran parte de los teoremas sobre lógica matemática que se presentaban en los tres volúmenes de los Principia Mathematica de Alfred N. Whitehead y Bertrand Russell.
Desde sus inicios la inteligencia artificial se usó también para resolver problemas de carácter más abstracto como la adquisición del lenguaje, el jugar a ajedrez o la traducción automática de textos. El diseño de un sistema de inteligencia arti cial normalmente requiere la utilización de herramientas de disciplinas muy diferentes como el cálculo numérico, la estadística, la informática, el procesado de señales, el control automático, la robótica o la neurociencia. Por este motivo, pese a que la inteligencia arti cial se considera una rama de la informática teórica, es una disciplina en la que contribuyen de forma activa numerosos cientí cos, técnicos y matemáticos. En algunos aspectos, además, se bene cia de investigaciones en áreas tan diversas como la psicología, la sociología o la losofía.
EVOLUCION
Años más tarde de que se mencione el término inteligencia artificial por primera vez, Minsky y McCarthy fundaron el laboratorio de inteligencia arti cial del Massachusets Institute of Technology (MIT), uno de los grupos pioneros en el ámbito. La actividad de los años cincuenta es consecuencia de trabajos teóricos de investigadores anteriores como Charles Babbage (autor de la Máquina analítica, 1842), Kurt Gödel (teorema de incompletitud, 1930), Alan Turing (máquina universal, 1936), Norbert Wiener (cibernética, 1943) y John von Newmann (arquitectura del computador, 1950). La arquitectura de von Newmann consta de una unidad central de proceso (CPU) y de un sistema de almacenamiento de datos (memoria), y fue utilizada en 1954 por RAND Corporation para construir JOHNIAC (John v. Neumann Numerical Integrator and Automatic Computer), una de las primeras computadoras en las que más tarde se implementaron sistemas de inteligencia arti cial como el Logic Theorist de Newell y Simon.
En 1954 también apareció el IBM 704, la primera computadora de producción en cadena, y con ella se desarrollaron numerosos lenguajes de programación especí camente diseñados para implementar sistemas de inteligencia arti cial como el LISP. Junto con estos avances, se produjeron los primeros intentos para determinar la presencia de comportamiento inteligente en una máquina. El más relevante desde el punto de vista histórico fue propuesto por Alan Turing en un artículo de 1950 publicado en la revista Mind y titulado Computing Machinery and Intelligence.
En este trabajo se propone un test de inteligencia para máquinas según el cual una máquina presentaría un comportamiento inteligente en la medida en que fuese capaz de mantener una conversación con un humano sin que otra persona pueda distinguir quién es el humano y quién el ordenador. Aunque el test de Turing ha sufrido innumerables adaptaciones, correcciones y controversias, pone de mani esto los primeros intentos de alcanzar una de nición objetiva de la inteligencia.
En este contexto, es de especial relevancia el Teorema de incompletitud de Gödel de 1931, un conjunto de teoremas de lógica matemática que establecen las limitaciones inherentes a un sistema basado en reglas y procedimientos lógicos (como lo son todos los sistemas de IA).
Tras los primeros trabajos en IA de los años cincuenta, en la década de los sesenta se produjo un gran esfuerzo de formalización matemática de los métodos utilizados por los sistemas de IA. Los años setenta, en parte como respuesta al test de Turing, se produjo el nacimiento de un área conocida como procesado del lenguaje natural (NLP, Natural Language Processing), una disciplina dedicada a sistemas arti ciales capaces de generar frases inteligentes y de mantener conversaciones con humanos. El NLP ha dado lugar a diversas áreas de investigación en el campo de la lingüística computacional, incluyendo aspectos como la desambigüación semántica o la comunicación con datos incompletos o erróneos.
A pesar de los grandes avances en este ámbito, sigue sin existir una máquina que pueda pasar el test de Turing tal y como se planteó en el artículo original. Esto no es tanto debido a un fracaso de la IA como a que los intereses del área se se han ido rede niendo a lo largo de la historia. En 1990, el controvertido empresario Hugh Loebner y el Cambridge Center for Behavioral Studies instauraron el premio Loebner, un concurso anual ciertamente heterodoxo en el que se premia al sistema arti cial que mantenga una conversación más indistinguible de la de un humano. Hoy endíaa, la comunidad cientí ca considera que la inteligencia arti cial debe enfocarse desde una perspectiva diferente a la que se tenía el los años cincuenta, pero iniciativas como la de Loebner expresan el impacto sociológico que sigue teniendo la IA en la sociedad actual.
En los años ochenta empezaron a desarrollarse las primeras aplicaciones comerciales de la IA,fundamentalmente dirigidas a problemas de producción, control de procesos o contabilidad. Con estas aplicaciones aparecieron los primeros sistemas expertos, que permitían realizar tareas de diagnóstico y toma de decisiones a partir de información aportada por profesionales expertos. En torno a 1990, IBM construyó el ordenador ajedrecista Deep Blue, capaz de plantarle cara a un gran maestro de ajedrez utilizando algoritmos de búsqueda y análisis que le permitían valorar cientos de miles de posiciones por segundo.
Más allá del intento de diseñar robots humanoides y sistemas que rivalicen con el cerebro humano en funcionalidad y rendimiento, el interés hoy en día es diseñar e implementar sistemas que permitan analizar grandes cantidades de datos de forma rápida y e ciente. En la actualidad, cada persona genera y recibe a diario una gran cantidad de información no sólo a través de los canales clásicos (conversación, carta, televisión) sino mediante nuevos medios que nos permiten contactar con más personas y transmitir un mayor número de datos en las comunicaciones (Internet, fotografía digital, telefonía móvil). Aunque el cerebro humano es capaz de reconocer patrones y establecer relaciones útiles entre ellos de forma excepcionalmente e caz, es ciertamente limitado cuando la cantidad de datos resulta excesiva.
Un fenómeno similar ocurre en el ámbito empresarial, donde cada día es más necesario barajar cantidades ingentes de información para poder tomar decisiones. La aplicación de técnicas de IA a los negocios ha dado lugar a ámbitos de reciente implantación como la inteligencia empresarial, business intelligence o a la minería de datos, data mining. En efecto, hoy más que nunca la información está codi cada en masas ingentes de datos, de forma que en muchos ámbitos se hace necesario extraer la información relevante de grandes conjuntos de datos antes de proceder a un análisis detallado.
En resumen, hoy en día el objetivo principal de la inteligencia actual es el tratamiento y análisis de datos.
ENFOQUES
Simbolismo o cognitivismo
El paradigma simbólico, presente durante las décadas del 60 al 80, cree que la mente es una máquina de procesamiento de información, en donde no interesan los mecanismos biológicos subyacentes. Se establece una analogía funcional entre las computadoras y la mente humana, que se basa en el ambicioso proyecto de Alan Turing, quien en un inicio busca comprobar si existe algún algoritmo o procedimiento general para computar en un número finito de pasos el valor de verdad o falsedad de cualquier enunciado posible.
Para ello, Turing describió una máquina ideal capaz de realizar operaciones muy simples sobre símbolos discretos, tales como imprimir, borrar o leer un símbolo, etc. Esta máquina formal tendría un poder de cómputo prácticamente ilimitado de modo que podría imitar el comportamiento humano inteligente.
En este contexto, Turing plantea que son dos los factores principales en la formación de la mente humana: la heredada y la adquirida (la educación). Análogamente, una máquina digital presenta estos dos factores: el "hardware", que se corresponde con la estructura material de la máquina; y el "software", que se refiere a la programación (la educación) que se introduce en su interior.
Esta analogía entre la mente y la computadora no es física sino funcional, ya que en el aspecto material, es decir en el hardware, las diferencias son considerables pues es claro que un circuito computacional no logra emular la complejidad de las conexiones neuronales del cerebro. Así, aunque las computadoras no son máquinas de Turing, sí son funcionalmente equivalentes pues pueden resolver cualquier problema computacional si este puede ser reducido a un conjunto finito de operaciones o instrucciones. Es decir, que cualquier función computable debía poder especificarse en términos de un programa de este tipo. Por lo tanto, los procesos de cerebro son análogos a los de los ordenadores y ello da lugar al surgimiento del enfoque cognitivista o simbólico en el que se plantea que la mente, al igual que una computadora, es un procesador de símbolos.
Conexionista:
Corriente que resurgió a comienzos de los 80 con el apoyo de las neurociencias, intenta imitar el sustrato emergente de la inteligencia, reproduciendo solamente sus propiedades observables esta perspectiva se descarta la construcción de símbolos y reglas para explicar la cognición y en su lugar se propone que la cognición: "tiene lugar a través de la interacción de un gran número de unidades de procesamiento simples (neuronas) distribuidas por todo el sustrato físico del cerebro". Es decir, que no existirá un procesador central que ejecuta los símbolos secuencialmente sino que existe un gran número de procesadores interconectados que funcionan en paralelo.


FILOSOFÍA DE LA MENTE
Definición:
La filosofía de la mente es una rama de la filosofía que trata los problemas conceptuales que surgen a estudiar la mente. En especial se estudia el origen de los fenómenos mentales como son: la conciencia, la sensación, el razonamiento, el deseo, entre otras. Se dice también que estudia la relación entre lo real y lo mental, esto se liga a estudiar la relación entre la mente y el cerebro, esta rama de la filosofía busca responder básicamente a lo que es la mente en su naturaleza.
¿Sabemos a qué nos referimos cuando decimos MENTE? en realidad esta pregunta abarca una variedad de términos, características o facultades diferentes. La pregunta por la mente es importante porque el simple hecho de que la posesión de las propiedades mentales determina una diferencia ya que la atribución de estas propiedades o estados no solo constituye una descripción sino también una valoración.
Orígenes:
Los orígenes de la filosofía de la mente pueden remontarse al filósofo Francés René Descartes allá por el siglo XVII, este mismo se había propuesto como objetivo describir la distinción fundamental entre la mente y el cuerpo humano. Descartes a través de su característico modo metódico, Cuestiono y logro poner en duda los tipos de conocimiento.
La visión que tenía Descartes sobre la mente o la persona, es que la persona está conformada por dos entidades: el cuerpo y la mente, y según el mismo la mente es algo totalmente distinto al cuerpo, decía que la mente es una sustancia no espacial e inmaterial y el cuerpo es una sustancia física tridimensional que se podía relacionar de manera que podamos conocernos.
Se consideraron dos posiciones para estudiar la filosofía de la mente estas son el dualismo y el monismo. El dualismo dice que la mente y el cerebro son dos cosas diferentes, en cambio el monismo sostiene que, en realidad, ambas conforman una sola cosa. En la actualidad la posición predominante del monismo es el materialismo.
EL DUALISMO
El dualismo es una doctrina metafísica sobre la naturaleza del alma o la mente y su relación con el cuerpo. En su versión más radical, el dualismo substancial, defendida por Descartes, esta doctrina sostiene que la mente y el cuerpo son dos entidades ontológicamente independientes, en el sentido de que puede existir la una sin la otra.
Así, de acuerdo con esta concepción, un ser humano es en realidad un compuesto de dos cosas o substancias diferentes: un cuerpo y una mente. El camino que conduce a Descartes al dualismo substancial, sin embargo, es epistemológico: se trata de una reflexión sobre la verdad y la justificación de nuestras creencias.

El dualismo, sin embargo, se enfrenta también con problemas muy importantes. El principal de ellos, como es sabido, consiste en que no puede ofrecer una explicación satisfactoria de la interacción psicofísica. Al concebir el alma y el cuerpo como entidades radicalmente distintas, convierte su interacción causal en un misterio. El dualismo, pues, no consigue dar cuenta de ese importante rasgo de la mente que en el capítulo anterior denominábamos la causalidad mental.
EL MONISMO:
Mientras que en la teoría anterior del Dualismo vimos que se afirma que la mente y el cuerpo son independientes, tenemos la teoría del monismo que sostiene uno de los dos (la mente o el cuerpo) e real, mientras que el otro es ilusorio.
George Berkeley filósofo irlandés del siglo XVIII era el defensor de la extrema visión de que lo único que existe son nuestros estados mentales afirmando que todas las demás cosas no existen en sí mismas sino como parte de la existencia de las personas. Hoy en día la mayoría de los monistas son materialistas o fisicalistas, en otras palabras creen que lo único que existe es lo físico.
NATURALEZA DE LA MENTE
Consideramos, pues, la posesión de propiedades mentales como una cuestión gradual, no como una cuestión de todo o nada. La vida mental de los distintos organismos, suponemos, es cada vez más rica o más pobre a medida que ascendemos o descendemos en la escala de complejidad biológica, y las características mentales se desvanecen insensiblemente en las formas más elementales de la vida animal.
A medida que ascendemos en esta escala necesitamos conceptos mentales cada vez más refinados y complejos para entender las reacciones y el comportamiento de los distintos tipos de organismos. En los escalones más bajos apenas necesitamos conceptos psicológicos: los movimientos de las amebas o de los virus son explicables, creemos, en términos puramente físico-químicos. Sin embargo, para entender el comportamiento de un perro ya empleamos conceptos psicológicos bastante complejos, y necesitamos ya toda la complejidad de estos conceptos para entender las reacciones y el comportamiento de un ser humano.
Sería erróneo pensar, sin embargo, que la diferencia entre un perro y un ser humano es sólo de complejidad psicológica. Más allá de cierto límite, la diferencia cuantitativa existente de complejidad, se convierte en una diferencia cualitativa. Y una diferencia cualitativa que aceptamos entre un perro y un ser humano es que este mismo pensamos que es capaz de decidir libremente y es, con ello, responsable de los actos que decide libremente llevar a cabo. Otra diferencia de este tipo es la autoconciencia y la reflexividad: un ser humano no sólo tiene propiedades mentales, sino que sabe que las posee. Esta capacidad es una condición indispensable del progreso intelectual y moral, puesto que nos permite convertir nuestras creencias en objeto de examen y juzgarlas críticamente.
Podemos intentar establecer una clasificación inicial de estos diversos tipos de estados y propiedades en dos grupos básicos y dos grupos derivados, caracterizables. Tenemos así, en primer lugar, estados intencionales, que se distinguen por tener un contenido ante el cual un sujeto adopta ciertas actitudes: creencias, deseos, intenciones, esperanzas, etc. En segundo lugar, podemos distinguir estados fenomenológicos, caracterizados por una cualidad sentida o un modo peculiar de aparecer al sujeto: sensaciones de dolor o placer, post-imágenes, experiencias visuales, auditivas, olfativas, etc.
No sólo los estados intencionales son causalmente efectivos en nuestro comportamiento. También los estados fenomenológicos pueden serlo. Una sensación de dolor al quemarnos, por ejemplo, puede causar que gritemos y que apartemos la mano del fuego. Este tipo de causalidad, sin embargo, es distinto del que caracteriza los estados intencionales. En él no interviene un contenido semántico ni tampoco ese aspecto de justificación racional propio de la causalidad del contenido. Los estados fenomenológicos y los estados intencionales se combinan, a veces de modo bastante intrincado, en la generación de nuestro comportamiento.
El avance en la comprensión de las bases biológicas y de las causas neuroquímicas de la conducta humana ha agudizado el conflicto entre la imagen científica y la imagen cotidiana, en cuyo marco la conducta humana se explica de manera muy distinta que en las ciencias naturales, a saber, en términos de creencias, deseos, intenciones, etc.
LA INTENCIONALIDAD DE LA MENTE
El contenido intencional de los estados mentales manifiesta el modo en que el sujeto concibe la realidad, independientemente de que ésta sea o no de ese modo. Esto hace que no podamos utilizar libremente cualquier expresión para informar o describir lo que un sujeto cree, desea o tiene intención de hacer.
El contenido mental tiene al menos tres dimensiones importantes. En primer lugar, una dimensión semántica, una proyección hacia la realidad que comparte con el lenguaje. Las creencias, como los enunciados, son verdaderas o falsas, dependiendo de su contenido (de lo que se cree) y de cómo son las cosas.
El contenido tiene, en segundo lugar, una dimensión explicativo-causal. Lo que creemos y deseamos nos lleva a actuar como lo hacemos. Si tuviéramos otras creencias y deseos actuaríamos también de manera distinta. Asimismo, y en conexión con esto, explicamos el comportamiento intencional de los seres humanos apelando a sus creencias y deseos.
En tercer lugar, el contenido intencional tiene también una dimensión o propiedad que cabría llamar epistemológica. Este conocimiento es una condición esencial del control racional de nuestro comportamiento y de la modificación crítica de nuestras creencias, y resulta indispensable para la responsabilidad por nuestras propias acciones.


LA TEORÍA DEL CONOCIMIENTO Y FILOSOFÍA DE LA MENTE EN EL IDEALISMO TRASCENDENTAL DE KANT
TEORÍA DEL CONOCIMIENTO
Para Kant la razón es una sola facultad universal que comprende dos usos claramente diferenciados: el uso teórico y el uso práctico. La Crítica de la Razón Pura es la ciencia encargada del uso teórico de la razón, mientras que la Crítica de la Razón Práctica se encarga del uso práctico de la misma.
El punto de partida para Kant es la universalidad y necesidad, como características esenciales del conocimiento científico, que se tomarán en cuenta a fin de comprender cómo son posibles los "juicios a sintéticos a priori".Los juicios pueden ser analíticos o sintéticos. En los analíticos el contenido del predicado está contenido en el sujeto, mientras que en los segundos, no. Los juicios pueden ser, a su vez, a priori o a posteriori (empíricos). Son a priori si son independientes de la experiencia, y serán a posteriori si su valor de verdad se obtiene a partir de la experiencia sensible. Ni los juicios analíticos (tautologías), ni los analíticos a priori, ni tampoco los sintéticos a priori pueden generar nuevo conocimiento.
El concepto de síntesis es aquí decisivo, porque implica un proceso complejo conformado por distintos pasos y que involucra el funcionamiento y la relación de las facultades cognitivas y sus elementos. Kant definió la síntesis como: "el acto de reunir diferentes representaciones y de entender su variedad en un único conocimiento".

Kant propone, por vez primera, una investigación filosófica sobre los límites de la razón. Para ello se propone realizar una crítica entendida como examen racional sobre el conocimiento humano y sus condiciones de posibilidad. El carácter "trascendental" del conocimiento consiste precisamente en eso: en determinar las condiciones de posibilidad de cualquier conocimiento humano. La razón debe estudiarse a sí misma sin traspasar sus propios límites. Esas condiciones son el requisito para hacer posible cualquier tipo de conocimiento científico.
Sin embargo, para Kant nosotros no conocemos las cosas tal como son en sí mismas, sino tal y como se nos aparecen o muestran a través de nuestras intuiciones y categorías, es decir tal y como nosotros, con facultades mentales determinadas, las conocemos. De las cosas sólo conocemos los fenómenos de ellas y nunca las cosas tal y como son en sí mismas. De acuerdo con el idealismo trascendental kantiano: "todos los fenómenos son conocidos como meras representaciones, y no como cosas en sí mismas".

UNA FILOSOFÍA DE LA MENTE EN KANT
Para el filósofo alemán del siglo XVIII, la mente contenía elementos de carácter universal y necesario: el tiempo y el espacio, por ejemplo, a través de los cuales podía captar y comprender la realidad sensible. Así pues , e l espacio es la forma del sentido externo que representarnos los objetos como existentes en el espacio, mientras que el tiempo es la forma del sentido interno que hace posible que percibamos los estados internos en una secuencia temporal.

TEORÍA KANTIANA DE LA ACTIVIDAD MENTAL
Kant planteó una teoría de las facultades de la "mente". No obstante, el término que utilizó el filósofo alemán para designar el concepto de lo que hoy entendemos comúnmente por "mente" fue Gemüt. Este término alemán se traduce mejor por "ánimo" y comprende la facultad superior de conocer, la facultad superior de desear y a la facultad de agrado y desagrado. En la facultad superior de conocer encontramos a las facultades internas, tales como la sensibilidad, la imaginación, el entendimiento y la razón, que obedecen a fines teórico- especulativos. La explicación pormenorizada de dichas facultades la desarrolla Kant en tres partes de su Crítica de la Razón Pura conocidas como: Estética Trascendental (o ciencia de los principios a priori de la sensibilidad), Analítica Trascendental (o ciencia de los conceptos y principios a priori del entendimiento) y Dialéctica Trascendental (o ciencia de los razonamientos ilusorios de la razón).La Estética Trascendental estaba compuesta del espacio y tiempo como intuiciones puras (a priori) de la sensibilidad, mientras que la Analítica Trascendental estaba conformada por los conceptos puros del entendimiento, es decir, por las funciones y las tablas de los juicios. Existe una relación entre la facultad de la sensibilidad descrita en la Estética Trascendental y la del entendimiento expuesta en la Analítica Trascendental, aun cuando ambas estaban separadas en la arquitectónica de la razón pura kantiana. Las intuiciones y los conceptos son elementos básicos y complementarios en cualquier proceso cognitivo. Se produce así una síntesis cognoscitiva, basada en una ley de afinidad trascendental, a través de la relación causal trascendental que une los elementos de dos facultades: las intuiciones de la sensibilidad con los conceptos del entendimiento. Por esa razón afirma Kant que: "la intuición y los conceptos constituyen, pues, los elementos de todo nuestro conocimiento, de modo que ni los conceptos pueden suministrar conocimientos prescindiendo de la intuición que les corresponda de alguna forma, ni tampoco puede hacerlo la intuición sin conceptos".


















PHILOSOPHY OF SCIENCE
Causalidad mental
Wittgenstein [1953] y Ryle [1949] pensaron que la explicación psicológica y causal eran de diferentes tipos, que se trataba de un error gramatical que supongamos que psychologicalexplanation era causal. Una explicación que muestra la racionalidad de una acción o estado psicológico contrasta con las explicaciones causales, que simplemente tratan de demostrar que lo que ocurrió fue que se espera. En uno de los argumentos más simples y más influyentes avanzaron sobre el tema, Davidson [l 963] señaló que necesitamos una distinción entre (a) el caso en el que alguien tiene una razón para realizar una acción, y lleva a cabo la acción, pero no por eso, y (b) el caso en el que alguien tiene una razón para adoptar la medida, y realiza la acción por esa razón. ¿Cómo vamos a explicar la distinción entre estos dos casos? Parece que el único Camino de explicarlo es decir que en caso (a) la causa de la acción no es que particular razón; mientras que en el caso (b) la causa de la acción es la razón, no era fácil ver cómo el contraste de Davidson podría dibujarse en un modelo no-causal de la explicación psicológica Place [1956] Smart [l959] y Feigl [1959] ya había declarado que los estados psicológicos podrían ser identificados con estados cerebrales; para estar en un tipo particular de estado psicológico era estar en un tipo particular de estado cerebral. Estados psicológicos eran por lo tanto, en esta cuenta, firmemente identificado como causas de lo explicaron. Pero el problema, lo declarado por Putnam [I967], era que parecía posible que los mismos estados psicológicos podrían ser poseídos por criaturas que tengan muy diferentes constituciones físicas. El monismo anómalo de Davidson [1970] cambió el lugar de la notificación de identidad. En efecto, Davidson hace una clara distinción entre los acontecimientos y sus propiedades. Y tiene una cuenta monista de los acontecimientos y una visión dualista de inmuebles: todos los eventos son eventos físicos, pero hay dos tipos de propiedad que los eventos pueden tener: física y psicológica. Eventos destacan en las relaciones causales entre sí, en virtud de las relaciones semejantes a leyes que sostienen entre sus propiedades físicas. Así que un suceso mental - un evento con propiedades mentales-puede causar otro evento, en virtud del hecho de que el evento también tiene propiedades físicas que les impidan legaliformes las relaciones a las propiedades del evento causó.
El problema clave es que el argumento inicial de Davidson, que es lo que convenció a todos de que explicación psicológica debe ser causal, no establece que las propiedades psicológicas son causalmente relevante; la idea de realizar una acción por una razón ya podría explicarse por un monismo anómalo que consideraba a las propiedades psicológicas como un epifenómeno, Incluso tal punto de vista podía distinguir entre el caso en el que se realiza la acción y su rendimiento es causado por su tener la razón, y el caso en el que tienes la razón y el caso de que usted tenga que la razón no es causalmente activo. A pesar de que, naturalmente, sentimos que las propiedades psicológicas deben ser causalmente relevante, nos falta un argumento convincente en este punto, lo que significa que no tenemos ninguna comprensión de por qué deben ser tomados como causalmente relevante, y cuando sería correcto considerarlos como de hecho causalmente inactivo.
La respuesta obvia en este punto es apelar a una doctrina de superveniencia que, si las propiedades físicas se mantienen constantes, las propiedades mentales son por lo tanto mantienen constantes. Esto sugiere que podríamos apelar a contra factuales aquí: si el evento no hubiera tenido las propiedades mentales, no habría tenido las propiedades físicas en virtud de la cual tiene sus efectos, y si el evento aún había tenido sus propiedades mentales, seguiría siendo, de una manera u otra, han tenido las propiedades físicas en virtud de la cual tuvo su resultado (Jackson y Pettit [l990]).
La apelación a la superveniencia aquí necesita mayor discusión, pero el problema de explicar cómo las propiedades psicológicas pueden ser causalmente relevante está aún lejos de cumplirse. Supongamos que consideramos la aparición de delirios, como las sufridas por algunos pacientes esquizofrénicos, que empezaban a llamar la atención filosófica como el milenio terminó. Jaspers [1959] famosamente dijo que los delirios eran 'un-comprensible', lo que significa que las sucesivas etapas de la ilusión resistieron explicación psicológica. En particular, No se podía dar una explicación causal después de las etapas del delirio, apelando a las primeras etapas de la ilusión. Más bien, el progreso de la ilusión tuvo que ser entendida como epifenómeno sobre la progresión de una disfunción física, un "virus" subyacente, aún por descubrir, que produce los síntomas psicológicos como epifenómenos. Es una marca de la poca comprensión que tenemos de la relevancia causal de propiedades psicológicas que parecen no tener ninguna manera, ni siquiera en principio de decir cuál sería la diferencia entre un caso en el que el análisis de Jaspers era correcta, y un caso en el que las etapas posteriores de la falsa ilusión de que realmente se explican causalmente por los estados psicológicos de la materia a principios de falsas ilusiones. En ambos casos habrá contra factuales en el sentido de que, si las propiedades psicológicas anteriores no habían creado instancias, ni haría las propiedades psicológicas posteriores. En el momento en que realmente parece que no tienen forma de explicar cómo dibujar la distinción más fina que queremos, entre el caso en el que existe la causalidad psicológica y el caso en el que no hay relación de causalidad psicológica. No es, sin embargo, como si una vuelta a Ryle y Wittgenstein nos ayudaría aquí: no ofrecen una forma alternativa de establecer la distinción que queremos, entre una progresión de estados psicológicos que es un epifenómeno en una progresión física subyacente, y una progresión de estados psicológicos en los que los estados anteriores a explicar los estados posteriores. En particular, un llamamiento a la noción de racionalidad no ayudará. Mientras el sujeto engañado puede no ser nuestro ideal de racionalidad, la noción de racionalidad simplemente no tendrá el peso aquí; no tenemos una forma aguda de la determinación de si el tema es suficientemente irracional que el engaño está fuera del ámbito de la explicación psicológica.
Funcionalismo
Como Kim [1998] señala, cuando estamos buscando explicaciones de cómo los estados psicológicos podrían tener un significado causal, dado que toda causalidad es físico, lo que necesitamos no necesitan leyes que indican que tenemos un tipo de estado mental cuando, y sólo cuando tenemos un tipo particular de estado físico, pero caracterizaciones funcionales de las propiedades psicológicas, por lo que podemos ver la forma en que se realizan por las estructuras físicas subyacentes. Como también es evidente, sin embargo, no es fácil ver cómo muchos aspectos de la conciencia fenoménica 134 John Campbell podría darse caracterizaciones funcionales. Block y Fodor [1972] en primer lugar establecer esta línea de pensamiento en movimiento, señalando que en la cara de ella, la mismidad de la arquitectura funcional sería coherente con dos sujetos que tienen espectros uno de los cuales son una inversión de la otra. También es una buena pregunta si el contenido representacional se podría dar una caracterización funcionalista. Un cambio fundamental a través de los últimos cincuenta años ha estado en el intento de proporcionar análisis directos de lo que es estar en los estados con contenido proposicional, como las creencias y deseos, sin apelar a la idea de un lenguaje público compartido. Se propusieron varios tipos de cuenta funcionalista, a raíz de los primeros trabajos de Putnam. La idea básica es sim- ple: si estamos de acuerdo en que las creencias, por ejemplo, tienen causas y efectos, a continuación, tal vez, para cada sustitución particular de podemos definir lo que es para alguien creer que diciendo que se trata de una cuestión de estar en un estado con un patrón característico particular de causas y efectos.
La cuestión de las prioridades relativas de pensamiento y el lenguaje no es en absoluto resueltas, y si la filosofía de la mente depende en última instancia de la filosofía del leguaje es una pregunta abierta. Todavía estaría abierto a nosotros para volver a la imagen de sentido común que Wittgenstein y Quine tanto rechazadas, en la que usamos palabras como lo hacemos porque sabemos lo que representan. Russell [l9l0-l 1] parece haber sido el único gran filósofo del siglo XX para tratar de desarrollar este punto de vista, la clave aquí es su noción de conocimiento como lo que nos proporciona el conocimiento de la referencia de un término. En este punto de vista, es la experiencia del objeto que le proporciona su conocimiento de la referencia del término, y es consecuencia de esta experiencia del objeto que determina lo que es para que usted pueda ir bien o mal en su uso del término.
Tipos de contenido
A través de los años 1950 y 19605, la psicología experimental invierte cada vez más fuertemente en las explicaciones que hizo un llamamiento a la idea del humano información-procesamiento. La idea era que la actuación humana en distintas tareas - si la capacidad de producir y reconocer frases gramaticalmente bien formados o hacer un seguimiento de una sola voz en un mar de conversación - podría ser explicado en términos de la operación de los sistemas de procesamiento de información que llevó a cabo computaciones sobre las representaciones de entrada.
Según Chomsky, la distinción entre estados representacionales accesibles a la conciencia y esas no son accesibles a la conciencia no es de especial interés teórico. Una reacción alternativa fue desarrollada por Searle [i995] De acuerdo con Searle, sólo hay una representación de idea, y es constitutivamente vinculada al conocimiento; sólo hay las creencias y los deseos comunes, de los que podemos llegar a ser, en principio, consciente, y en realidad no tiene sentido hablar en términos de otros tipos de estados figurativos.
En particular, podríamos reconsiderar por qué el contenido de las creencias y los deseos dependen de la conciencia. Yo mencioné anteriormente Russell ha sido titular que es conocido consciente con los objetos de nuestro pensamiento que nos proporciona el conocimiento de lo que estamos hablando. En este punto de vista, es la conciencia del mundo que nos proporciona el conocimiento de las referencias de nuestros términos. Esto le da un papel explicativo significativo a la noción de la conciencia: el conocimiento de referencia es una noción de si misma que lleva un papel teórico considerable. Así que un análisis de conciencia en términos de contenido naturalizado enfrentaría el reto de explicar lo que es conocer las referencias de los términos en los que normalmente expresan nuestras creencias y deseos. Ya sea que este reto puede ser superado sigue siendo una cuestión abierta.
Otras mentes
El problema de las otras mentes se presagia en Agustín, pero es sólo en el siglo XX que nos resulta tratado como una cuestión filosófica importante. (Para una excelente revisión de la historia del problema, consulte Avramides [2001].) Lo que encendió el debate del siglo pasado fue el intenso desarrollo del positivismo lógico en 1920 y 1930. Pero en 1950 se produjo un enfoque muy diferente. Los positivistas tenían en varios puntos de inclinación al análisis de estados conductistas de atribuciones mentales a otras personas, por lo que dicho de otra persona que estaba en el dolor era una cuestión de decir que él estaba dispuesto a comportarse de diferentes maneras.
Esto significaba que el dolor no se iba a considerar como la causa hipotética de sus disposiciones de conducta, por lo que no era un problema difícil de cómo sabemos cuando alguien más está en el dolor.
En la medida en que hay más en nuestro conocimiento de los estados mentales de otra persona de nuestro conocimiento de sus roles causales, que arrojan ninguna luz. Pero, sin duda, el conocimiento de lo que los estados mentales de otra persona son similares, en un frase que hizo famosa Nagel, es más fundamental que el conocimiento de sus roles causales.
La identidad personal
Bernard Williams [1956 -7] presentó una objeción a las teorías psicológicas de continuidad de la identidad personal. La literatura masiva posterior sobre la identidad personal se deriva principalmente de esta observación. En general se consideró, a pesar de las protestas de Williams, que esta objeción a las teorías de continuidad psicológicos aplica con igual fuerza a las vistas de identidad consiste en, por ejemplo, la continuidad del cuerpo, ya que los casos 'fisión', en la que dos cuerpos cualitativamente idénticas se salen de la lugar hasta ahora ocupado por un cuerpo, parecen fácilmente imaginable. De hecho, cualquier relación a la que puede apelar en el análisis de la identidad personal parece capaz en principio de ser de una sola o muchas.
Derek Parfit [1971] volvió a dibujar la moral de la reduplicación, dijo que lo que es importante para nosotros es la potencialmente una o muchas relaciones en términos de los cuales se analiza la identidad: la identidad no es lo que importa en la supervivencia.
No hay tal cosa como un criterio de identidad específicamente para las personas: las personas son, por lo general, los animales, y el criterio de identidad para ellos es el criterio de identidad apropiada para la especie correspondiente del animal. Otros se fueron de vuelta al argumento Reduplicación originales de Williams y sostuvo que, en un caso en el que existe la fisión, no hay una, sino dos personas, en el mismo lugar al mismo tiempo, es cierto, antes de la fisión. Esta tesis ocupación múltiple se desarrolló en un número de maneras (Lewis [1976], Noonan [l989]). Por la década de 1990 esta discusión había comenzado a desaparecer poco: las vistas principales rivales y sus dificultades parecían relativamente bien comprendidas, y que no era del todo claro cómo seguir avanzando, Una línea de pensamiento fue preguntar cómo pudo haber sucedido que hay era tanta incertidumbre en cuanto a qué, en todo caso, que estábamos hablando en el uso de la primera persona. Anscombe [1975] había argumentado que no hay tal cosa como un conocido russelliana con, o la experiencia de la 'auto', para proporcionar el conocimiento de la referencia de la primera persona. De ahí que la primera persona no se refiere a nada. Una consecuencia de esto es que no hay un "yo" se requiere para existir como la referencia del "yo", en cuyas condiciones identidad que tenemos que preguntar. Esta idea complementa el animalismo defendida por Wiggins y otros. Pero si la primera persona sí se refiere, ¿cómo podría haber sucedido que estábamos usando tan confiadamente mientras que no hubo tal incertidumbre radical en cuanto a lo que estábamos hablando? Este tipo de pensamiento dibujó una masa de trabajo en la primera persona, la discusión de cuestiones tales como el papel del conocimiento del propio cuerpo, o el conocimiento de la ubicación espacial de uno, en la comprensión de los propios usos de 'I' (Bermúdez, Marcel y Eilan [i995]; Cassam [I997], [Eilan, McCarthy y Brewer [I993lI999];. Evans [l982]).

THE PROBLEM OF REDUCTIONISM IN PHILOSOPHY OF MIND AND ITS IMPLICATIONS FOR THEISM AND THE PRINCIPLE OF SOUL
La capacidad para el pensamiento autorreflexivo es quizás el aspecto más convincente de la conciencia humana. Es en este momento de auto-reflexividad que una persona tan a menudo se encuentra una provocación vital que impulsa a él o ella para llegar más allá de lo físico. Es generalmente aceptado que nuestro defecto intuitiva ex-periencia de ves Oursel y el mundo es dualista de naturaleza. Nuestras mentes están intuitivamente percibidas por nosotros como poseedores de una vida que funciona independientemente de nuestros cuerpos físicos.
La conciencia, el término que se cierne central para nuestro tema, ha demostrado ser un concepto ULT notoriamente difícil de definir. Muchos autores lo mencionan, pero pocos realmente hacen un esfuerzo para salir de línea de lo que quieren decir con ello. Más a menudo que no, hablan en lugar de la mente, las propiedades mentales, y los acontecimientos mentales. David Chalmers aborda esta observación directa. Cita el il-lusiveness del concepto como la razón de esto y dice que la mayoría de los autores han bastado a sí mismos para hablar de los fenómenos de la conciencia (por ejemplo, las creencias, las sensaciones, PUR-poses, deseos, etc.).
En el presente, el autor trata de demostrar que la plausibilidad del teísmo se puede demostrar de la pregunta de la conciencia. En The Evolution of the Soul, Richard Swinburne se dispuso a entregar esta pregunta. De hecho, esta cuestión sigue animando su carrera hasta la fecha. Decir que no tuvo éxito en su empeño sería injusto. Ha colaborado con el trabajo importante a la re-evaluación del dualismo en general y la cuestión filosófica de la mente y el alma en particular. Puede ser el caso, sin embargo, que su proyecto busca incluir demasiado en sus instalaciones antes de contabilizar la mayor parte de las consideraciones fundamentales necesarias. La forma de dualismo sustancia que profiere es ni Cartesiana ni tomista; pero puede ser más que su proyecto está dispuesto a sostener. La cuestión de la irreductibilidad de la conciencia humana, por el contrario, puede resultar un modesto pero eficaz baluarte inicial contra el fisicalismo reduccionista. El no-reduccionismo se encuentra actualmente disfrutando siempre crecientes filas de los compañeros de viaje, sin embargo, no todos están dispuestos a ir más allá de la seguridad de sus conclusiones más obvias. Este ensayo pretende proponer que la irreductibilidad de la conciencia permite la verosimilitud de los resultados más metafísicas. Se puede afirmó que es esta plausibilidad inherente al "problema" de la conciencia que pudiera ofrecer con éxito algunos sup-puerto filosófica inicial para el teísmo.
Swinburne tiende a establecer una concepción de la vida mental y el alma que puede ser empleado para los efectos de demostrar la existencia de Dios. Él describe su teoría de la conciencia mediante la invocación de una interpretación particular del dualismo sub-postura. Swinburne esboza su caso por el alma, la mente, y la conciencia en su libro La Evolución del Alma. Un objetivo central del trabajo es demostrar que un individuo "ser humano" es idéntica a un alma inmaterial, ligado a un cuerpo material, con el argumento de que, "para cualquier persona que es actualmente consciente, no hay imposibilidad lógica... que esa persona siga existiendo sin su cuerpo. Swin-burne construye este caso en tres premisas fundamentales, que sirven como la plataforma sobre la cual presenta su modal argumento para dualismo de sustancias.
La primera de estas premisas fundamentales es su definición de la persona. En teoría Swinburne 's, el ser humano es, "constituida por un alma humana, conectado a un cuerpo humano." Mientras que el cuerpo proporciona la capacidad de actuar en el mundo, su relación con la persona que es estrictamente temporal y contingencia gente". La persona es el alma junto con lo que sea, si los hay, el cuerpo está vinculado tem poralmente a ella", Swinburne escribe.
El segundo fundamento del programa de Swinburne 's es la premisa de que "es lógicamente posible que las personas que siguen existiendo cuando sus cuerpos se destruyen". El tercer fundamento es la premisa de que "la persistencia de algunas de las cosas de las cuales una sustancia se hace necesario para la existencia continua de la sustancia ". Este, Swinburne llama el "principio cuasi aristotélico". El Centro de Aristóteles cuenta de sustancias que eran " materia continua era necesaria para la existencia continua de una sustancia". En la nueva concepción "cuasi", "algunas sustancias se hacen en parte d e inmaterial cosas, sustancia del alma."
El paso de la conciencia al teísmo es central para el proyecto de Swinburne. Su tratamiento más claro de esto se presenta en su La existencia de Dios. En este tratamiento, Swinburne pretende erigir un argumento para la existencia de Dios a partir un conocimiento específicamente. Sin embargo, la estructura del argumento es efectivamente una extensión de su argumento de la puesta a punto.
La premisa del argumento es que la conciencia es "improbable". "El valor de los seres humanos radica en su vida consciente en sus creencias que adquieren, tener pensamientos, sensaciones, deseos, etc. ¿Cómo posible de que, si no hay Dios, cuerpos humanos darían origen a la vida consciente típica de los humanos?". Modelo de la conciencia de Swinburne sufre de deficiencias claras en tanto su validez estructural y, más funda-mentalmente, en sus locales sustanciales. La teoría de la identidad mente-cerebro constituye una prioridad más formidable para el caso de teísmo.
Teoría de la identidad mente-cerebro sostiene que los fenómenos mentales no sólo están relacionados con eventos cerebrales, pero que estos estados mentales son idénticos a sus estados cerebrales asociados. El mental es efectivamente reducible a la física. Está destinado a ser análoga a la afirmación de que un rayo es idéntica a la descarga eléctrica y que el agua es idéntico al H2O.

Mientras tanto se sigue trabajando por hacer en el desarrollo histórico y descriptivo de las doctrinas "psicológicas islámicas" en la modalidad de estudios orientales, aún queda mucho por hacer para desarrollar una definición de trabajo de alma racional y la mente para las discusiones teológicas. Existen numerosos, y, a veces, contradictorias concepciones del alma, el espíritu y el intelecto, en las principales fuentes sunita Kalam. ¿Qué forma de dualismo (uno tiende a asumir que sería integradora en la naturaleza) que representan fielmente los principios estipulados por las fuentes, así como constituye un vehículo resistente para participar debates contemporáneos? La esperanza ha sido que estas investigaciones sirven para estimular nuevos debates e investigaciones críticas en el fértil campo de la teología Kalam.


UNA MÁQUINA SUPERA EL TEST DE TURING HACIÉNDOSE PASAR POR UN NIÑO DE 13 AÑOS
Miguel Ángel Criado (El Huffington post)
Se trata de un programa informático que simula ser un niño de 13 años. En el Turing Test 2014 Prize, un evento que lleva años celebrándose, varios superordenadores intentaron engañar y hacerse pasar por humanos a varios expertos reunidos en la sede de la Royal Society de Londres. Sólo uno pudo superar la prueba y ese fue el programa (bot en la jerga informática) llamado por sus creadores Eugene Goostman.
La criatura, programada por un ruso y un ucraniano, se hacía pasar por un niño algo repelente, a tenor de su avatar, que vive en San Petersburgo. En una sucesión de conversaciones de entre cinco y 15 minutos, logró engañar al 33% de los observadores humanos. Por primera vez, una máquina superaba el 30% establecido como marca para responder afirmativamente a la pregunta que se hizo décadas atrás Turing: ¿Pueden las máquinas pensar? Otros enfoques de la inteligencia artificial, como el adoptado por el superordenador Watson de IBM, se apoyan en la acumulación de ingentes cantidades de información que, gracias a tecnologías de lenguaje natural, puede hacerle ganar un concurso de preguntas y respuestas o asesorar al mejor cirujano. Lo suyo es el razonamiento y la lógica. Pero ser humano es algo más que razonar. El error, el engaño o las emociones también nos hacen humanos. Y ahí es donde las máquinas fallan o, tras Eugene, fallaban. Aunque se trata sólo de un concurso, puede ser el principio de algo más.















THE TURING TEST DOESN'T MATTER

Hasta ahora dos ordenadores han superado exitosamente el test de Truring, se trata de "Eugene Goostman" y "Cleverlot". Turing propuso su famosa prueba de nuevo en 1951, llamándolo "el juego de imitación." La idea surgió de su famosa obra en lo que hoy se conoce como la hipótesis de Church-Turing, la idea de que "ordenadores" (muy ampliamente definidos ) se puede llevar a cabo cualquier tarea que puede ser codificado por un algoritmo.
Aquí hay una serie de cosas que deberíamos probar para el fin de responder a la pregunta original de Turing: pueden pensar las máquinas? Cada entrada va acompañada de una definición de diccionario estándar, sólo para tomar un primer intento de aclarar la cuestión:
Inteligencia: La capacidad de adquirir y aplicar conocimientos y habilidades.
Potencia de cálculo: El poder de calcular.
Conciencia de sí mismo: El conocimiento consciente de los propios personajes, sentimientos, motivos y deseos.
Sentiencia: La capacidad de percibir o sentir cosas.
Memoria: La facultad de almacenar y recuperar información.
Debería ser obvio que los seres humanos se caracterizan por todo lo anterior: tenemos memoria, somos sensibles, conscientes de sí mismos, podemos calcular, y somos inteligentes (bueno, algunos de nosotros, en todo caso). Pero también es evidente que éstos son distintos, si de alguna manera relacionados, los atributos de la mente humana. Algunos son un subconjunto de los demás: no hay manera de que alguien sea consciente de sí mismo y, sin embargo no sensible; sin embargo, muchos animales son probablemente el último, pero probablemente no en el primero (que es difícil de decir, en realidad). Debe quedar claro, además, que algunos de estos atributos tienen poco que ver con algunos de los otros: uno puede imaginar cada vez más potentes máquinas de computación que sin embargo no son ni inteligente ni consciente de sí mismo. Uno puede también están de acuerdo en que la memoria es necesario para la inteligencia y la conciencia de sí mismo, pero al mismo tiempo se dan cuenta que la memoria humana no es nada como la memoria del ordenador.
Por lo tanto, cuando hablamos de "AI" ¿Qué entendemos por la inteligencia (como el "yo" engañosamente parece reposar), la computación, la auto-conciencia, todo lo anterior? Sin acordar al menos sobre qué es lo que estamos tratando de hacer no podemos posiblemente incluso concebir una prueba para ver si hemos llegado allí.
Según lo expuesto se debe descartar el E de Turing pues no nos dice nada que realmente queremos saber sobre el pensamiento de la máquina.








SPAUN, UN CEREBRO VIRTUAL QUE GENERA REPRESENTACIONES
Por José Luis Fernández Moreno
El carácter interdisciplinar de las neurociencias y de la filosofía de la mente o de la neurofilosofía se muestra precisamente cuando se abordan estos problemas. El equipo de investigadores del "Centre for Theoretical Neuroscience" de la Universidad de Waterloo en Canadá dirigido por Chris Eliasmith acaba de publicar una investigación (Science. 30 Noviembre, 2012 Vol. 338) en la que mediante el diseño de un modelo virtual de un cerebro capaz de realizar tareas que requieren del uso de representaciones, se pueden empezar a analizar estas viejas cuestiones desde la nueva perspectiva que ofrece la Neurosemántica.
El modelo virtual de cerebro se llama "Spaun" (Semantic Pointer Architecture Unified Network) y en términos muy generales se presenta como una contribución más al intento de ofrecer una explicación de la conducta humana en términos neurobiológicos. Desde una perspectiva filosófica el proyecto encajaría dentro de una explicación naturalista, de carácter fisicalista, del contenido representacional. Se trata de diseñar un modelo que explique y simule la actividad que genera un cerebro. Para ello Spaun incorpora en su diseño las estructuras anatómicas del cerebro y los mecanismos de disparo propios de las neuronas.
La descripción de Spaun se hace desde una doble perspectiva. De un lado tenemos la estructura anatómica del modelo. Esta estructura se corresponde con el modelo anatómico que se define a partir del estudio de las áreas cerebrales y de las propiedades específicas de las poblaciones de neuronas. De otro, se dispone de una descripción funcional del modelo que incluye las funciones que puede realizar el sistema y que se corresponden con las áreas anatómicas descritas.
La tarea principal de Spaun es el reconocimiento de números o de letras que posteriormente debe copiar mediante un brazo articulado. Estas tareas incluyen el reconocimiento de imágenes, reconocimiento de series mediante su memoria de trabajo, el aprendizaje y otras habilidades que no pueden ejecutar los sistemas artificiales que se basan exclusivamente en modelos de disparos de redes neuronales. Además de copiar y dibujar, Spaun puede pasar con facilidad test de inteligencia (test de Raven). El modelo permitirá comprobar la viabilidad de teorías sobre el funcionamiento del cerebro y la posibilidad de que la neurosemántica ofrezca una explicación al problema de la representación, el último refugio del dualismo.










MICHIO KAKU: 'EL MAPA DEL CEREBRO NOS HARÁ INMORTALES'
María Ramírez, corresponsal Nueva York
¿Por qué este libro ahora?
Hemos aprendido más sobre el cerebro en los últimos 10 años que en toda la historia de la humanidad. Ahora existe la telepatía, podemos mover objetos con la mente, registrar y descargar recuerdos simples, o fotografiar sueños. Gracias a la Física, podemos ver cómo se mueve la sangre dentro del cerebro, básicamente oxígeno, y ver la actividad neuronal, los pensamientos. También podemos conectar el cerebro a un ordenador y después a Internet. En último término, Internet se convertirá en una red del cerebro (brain-net). Podremos compartir pensamientos y emociones en la red. A los jóvenes les encantará. No sólo podrán poner en Facebook lo que están haciendo, sino el recuerdo del baile de fin de curso o de la primera cita. Vamos a tener dos discos en el futuro, el del genoma, con todos los genes de nuestro cuerpo, y el del conectoma, el mapa de las conexiones neuronales con las memorias, las sensaciones y la personalidad. Todo estará en dos discos. Obama y la UE invierten en esto porque a corto plazo podremos entender las enfermedades mentales. A largo plazo, podremos vivir para siempre. Incluso después de morir, nuestro genoma y nuestro mapa mental sobrevivirán. Podremos resucitar sensaciones y recuerdos. En cierto sentido, nos convertiremos en inmortales.

¿Cuándo será accesible para cualquiera la conexión cerebro-ordenador?
El Pentágono está invirtiendo decenas de millones de dólares en prótesis de piernas, brazos y esqueletos robóticos porque hay miles de heridos de guerra de Irak y Afganistán. En el Mundial de Fútbol de Brasil una persona que está parcialmente paralizada va a lanzar el saque de honor gracias a un exoesqueleto. Ya podemos conectar la mente de una persona que tiene una lesión de la médula a un ordenador para que haga lo mismo que cualquiera. Mi colega Stephen Hawking está completamente paralizado, sólo parpadea. Pero el cristal derecho de sus gafas tiene una antena con un chip conectado con un portátil y eso le permite comunicarse mentalmente. En la próxima década, la gente con parálisis podrá moverse y comunicarse. Los primeros en estar conectados serán las víctimas de lesiones deportivas, infartos o accidentes de coche. Más adelante, podremos crear personas con superpoderes. Ya hemos descargado recuerdos en animales. El año pasado, se hizo en Carolina del Norte: coges un ratón, conectas su hipocampo a dos electrones y grabas los mensajes que se desplazan por el hipocampo cuando aprende una tarea. Después la olvida. Pero si insertas ese recuerdo en el animal, el ratón hace bien la tarea al primer intento.

¿Qué está más cerca?
El objetivo a corto plazo es construir un marcapasos del cerebro para los pacientes de Alzheimer, para los millones que no saben dónde viven o quiénes son. En el futuro, tendrás un botón, apretarás y recordarás quién eres, dónde vives y dónde tienes que ir. En esta década haremos estudios con animales, grabando y descargando recuerdos, y en la próxima lo haremos con humanos. En la década de 2030, podremos descargar labores complejas, por ejemplo para trabajadores que tengan que aprender nuevas habilidades porque sus puestos se hayan quedado obsoletos o para los jóvenes que se saltaron un curso en la Universidad.

¿Qué le ha sorprendido más?
El que ya podamos fotografiar un pensamiento. En Berkeley, ponen a los pacientes en un escáner cerebral y convierten la mente en 30.000 puntos. Esos puntos representan los flujos cerebrales. Un ordenador los analiza y crea una fotografía de los pensamientos. Las fotos son borrosas porque estamos en la fase inicial.

¿Quiénes somos si nuestra conciencia se puede descargar?
Como diría el ex presidente Bill Clinton, depende de cómo definas quién eres tú. Cuando mueres, puede que haya un alma. O puede que no quede nada, pero si tengo el genoma y la información de tu cerebro, puedo recrearte. La cuestión es, ¿eres tú? Si hay un mapa de tus conexiones cerebrales, una parte de ti sobrevive. Igual que con una grabación. Esa parte de ti sobrevive. Esto puede resucitar tu personalidad y tus deseos porque está conectada al genoma y eso es lo que eres. ¿Quiénes somos? El punto de vista extremo es que somos información.

¿Un robot con una mente descargada es humano?
Si habla como un humano y tiene una personalidad como un humano, tal vez podemos llamarlo así. En el futuro, podremos tener una biblioteca de almas igual que hoy puedes leer biografías o películas de la gente que ha muerto. Podrás conversar con ellos. Si fueras un político, ¿no querrías hablar con Winston Churchill? Tus nietos podrán tener acceso a la biblioteca donde podrán tener una conversación contigo, aunque no sea perfecta.

¿Cuáles son los límites éticos más urgentes?
El medicamento para olvidar experiencias traumáticas, que ha sido rechazado por la comisión de bioética del presidente, ya está generando debate. Habrá mucho debate también con el marcapasos del cerebro. ¿Qué pasa si se descargan recuerdos equivocados? ¿Y si la memoria de un crimen que no cometiste se descarga en tu mente? Tienes el recuerdo de que mataste a alguien, pero no lo hiciste. Debemos tener leyes para regular recuerdos falsos o que se descarguen sin permiso.








INTELIGENCIA ARTIFICIAL ECOLÓGICA Y ¡AFFORDANCES POR UN TUBO!
Por José Luis Fernández Moreno

"Cuando mi amigo Manuel Heras, me comentó el tráiler de la película EVA, todo lo que escribió en su Facebook fue "¡¡affordances por un tubo!!". Reconozco que como crítica cinematográfica no es muy acertada, pero la palabra 'affordance' en filosofía y psicología ecológica da mucho juego, y lo que tienen estas cosas, se empieza hablando sobre una película y se acaba hablando de los modelos de aprendizaje y el diseño de la arquitectura cognitiva en sistemas artificiales.
El intento de aunar ciencias, en principio tan dispares, como la Psicología y la Teoría de la Computación aparece ya en el trabajo de Alan Turing Computing Machinery and Intelligence en 1950. La idea sobre la que se fundamenta este intento es el supuesto teórico de que existe algo que la mente humana y un ordenador tienen en común: ambos sistemas son capaces de razonar lógicamente. Por lo que, siguiendo la tesis de Turing-Church, todo sistema computable podrá ser simulado mediante un procedimiento algorítmico, esto es, mediante un programa que podrá ser implementado en un sistema físico artificial.
La vinculación entre los sistemas de cómputo de tipo algorítmico y los procesos cognitivos quedan perfectamente recogidos en la definición que ofrecía Margaret Boden allá por 1984: "Por "inteligencia artificial", en consecuencia, entiendo el uso de programas de computadora y de técnicas de programación para proyectar luz sobre los principios de la inteligencia en general y de la inteligencia humana en particular".
El cerebro, la mente humana, trabaja de una forma distinta a la propuesta por los diseños clásicos en computación. Básicamente hay dos tipos de problemas a los que se enfrentan los diseños clásicos en computación y que los sistemas naturales resuelven con bastante eficacia. De un lado, un sistema de procesamiento de información de tipo simbólico se va a enfrentar a problemas relacionados con la obtención de información del medio, y aquí aparecen dos cuestiones importantes. La primera tiene que ver con la cantidad de información del medio que hay que introducir en un programa para que realice tareas que a los sistemas naturales les resultan fáciles (El problema del cruzamiento). La enorme cantidad de factores que intervienen en la más sencilla de las tareas, y que se tienen que tener en cuenta en el diseño de un programa de ordenador, provoca que el número de computaciones que realiza el ordenador se expanda exponencialmente en relación con el número de factores que intervienen en el problema que debe resolver. Esta situación da lugar a lo que Tienson llama una "explosión computacional inmanejable". La segunda cuestión a tratar sería cómo se las ingenia un sistema artificial de este tipo para seleccionar, en tiempo real, que información, de la totalidad de información que aparece en el entorno, resulta relevante para realizar una tarea. Esto es lo que se conoce como el problema del marco o del entorno.
Otra diferencia importante entre un sistema de computación clásico y un sistema natural es que este último tiene lo que se conoce como una degradación "armoniosa" o "elegante". La degradación elegante define la manera en la que los sistemas naturales pierden funciones o simplemente se van degradando. En un sistema natural la pérdida de funciones suele ser un proceso gradual.
Un nuevo paradigma en IA integra la Psicología Ecológica con la Teoría de Sistemas Dinámicos. María Y Alex resumen los principios de esta Inteligencia Artifical Ecológica. (i) Adaptación. La conducta adaptativa del agente emerge de forma autónoma en función de las relaciones agente/medio. (ii) Minimalismo. Reproducir la mayor cantidad de comportamientos biológicamente inspirados con la menor cantidad de procesamiento centralizado. (iii) Dependencia del contexto. El entorno es una fuente de información y un campo de acción en el que interviene el agente creando un bucle de interacción en el que entorno y agente pueden modificarse para lograr la mejor adaptación. (iv) Flexibilidad. Es una consecuencia directa de los tres principios anteriores y permite que el agente se adapte a un entorno sin tener que disponer de grandes bancos de memoria en los que se ha preinstalado la información relevante.".





Planteamiento de la hipótesis

La inteligencia artificial se basa en los conceptos filosóficos de la mente.
La Inteligencia Artificial facilita al estudio de la mente.



Conclusiones

El estudio de


Bibliografía

JOHN SEARLE (1980) MINDS, BRAINS AND PROGRAMS in the behavioral and brain sciences VOLUME 3, SEPTEMBER, PRINTED UNITED STATES OF AMERICA 1980 PP 417-424.
Correa A., The philosophy of mind: Retrospective and critical, Miami, Florida, United States, PP 71-90.
Martinez-Feire P. (2004), Psicología y Materialismo Vol. 9, Universidad de Málaga, Málaga - España.
García P., La libertad en la Filosofía de la mente de John Rogers Searle, Sao Paulo, Brasil, PP 205-224.
Moya C. (2006), Filosofía de la mente, Segunda Edición, Editorial PUV, Valencia, España.
Mora R., Filosofía de la mente, Bogota, Colombia.
Wallace W. (2001), Translate of Philosophy Of Mind by Hegel G. (2001), United States.
Kannan S., Benitez, R. y Escudero G., Inteligencia Artificial Avanzada, Primera Edición, Editorial UOC, Cataluña, España.
Brown J. (2013), The Problem of Reductionism in Philosophy of Mind and its Implications for Theism and the Principle of Soul Framing the issue for further Islamic inquiry, First Edition, Tabah papers Series, Abu Dhabi, U.A.E.
Campbell J., Philosophy of Mind (2000), United States, PP 130 – 146.



Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.