Metodología orgánica evolutiva para la toma de decisión y diseño en indicadores sustentables.

July 28, 2017 | Autor: J. Jiménez Cervantes | Categoría: Sustainability Indicators, Genetic Algorithms, Sustainable Architecture, Indicadores de Sustentabilidade
Share Embed


Descripción

Juan Pablo Jiménez Cervantes Ricardo Victoria Uribe

1

2

Jesús Enrique de Hoyos Martínez

3

METODOLOGÍA ORGÁNICA EVOLUTIVA PARA LA TOMA DE DECISIÓN Y DISEÑO EN INDICADORES SUSTENTABLES

PALABRAS CLAVE Indicador, Heurística, algoritmo evolutivo, redes neuronales

RESUMEN El objetivo de la investigación es evaluar la posible flexibilización y ampliación de la plataforma de ponderación y de interpretación para la toma de decisiones en la elección de un material, por medio de los eco-indicadores y el análisis del ciclo de vida de un producto. De acuerdo con la metodología de los ecoindicadores, la evaluación se efectúa por medio de matrices de ponderación que establecen una correlación lineal entre los factores involucrados y arroja como resultado una cantidad adimensional; Se sugiere la posibilidad de re-explorar la evaluación por medio de sistemas de evaluación menos lineales, como las redes neuronales artificiales y los algoritmos genéticos, que posibilitan la expansión del horizonte de decisión y que podrían ofrecer un auxiliar visual para la fase subjetiva de interpretación de los resultados PALABRAS CLAVE: Indicador, algoritmo genético, toma de decisión

ABSTRACT The objective of this research is to evaluate the possible relaxation and expansion of the platform weight and interpretation for decision-making in the choice of a material through eco-indicators and life cycle analysis of a product. According to the methodology of eco-indicators, assessment is by means of weighting matrices that establish a linear correlation between the factors involved and indicates the result of a dimensionless quantity, is suggested the possibility of rescanning to the appraisal evaluation through less linear systems, as Artificial neural networks and genetic algorithms, which allow the expansion of the decision horizon and could provide a visual aid for phase subjective interpretation of results KEY WORDS: Indicator, genetic algorithm, decision making

1

Candidato a Doctor en diseño por la Facultad de Arquitectura y Diseño UAEMEX. [email protected] 2 Ph.D in Sustainable Design, Docente investigador de la facultad de arquitectura y diseño UAEMEX 3 Dr. en Ciencias Sociales. Docente investigador de la Facultad de Arquitectura y Diseño UAEMEX

INTRODUCCION El uso de indicadores como herramienta para evaluar procedimientos y materiales en el diseño, con el objetivo de atender simultáneamente a preocupaciones ambientales, económicas, sociales y políticas, es una estrategia generalizada de decisión a nivel internacional. Primero, por la practicidad y relativa sencillez en la elaboración de la composición e interpretación de los datos, y segundo, porque el carácter de los datos pre-analizados, configuran un horizonte de decisión estable y un resultado teóricamente óptimo de acuerdo a la utilidad que se espera de ellos. Sin embargo, a pesar de estos beneficios, los indicadores basados en El objetivo principal de este trabajo es proponer un cambio en la percepción del indicador en el diseño para la sustentabilidad, que obedezca a factores cualitativos integrados desde su desarrollo, a partir de una plataforma de decisión expuesta a riesgo, cuya metodología tenga como base el manejo de múltiples variables de acuerdo a factores regionales específicos de forma más flexible. El camino a seguir se ejemplifica en la figura siguiente:

Fig. 1

La adaptación de los indicadores a criterios cualitativos implícitos radica en el cambio metodológico. Fuente:

Elaboración propia (2012)

INDICADORES No es posible precisar una definición oficial por parte de algún organismo nacional o internacional sobre qué exactamente es un indicador. No obstante, pese a esta falta de acuerdo generalizado, una de las definiciones más utilizadas por diferentes organismos y autores es la de Bauer (1966, citado en Mondragón 2002): Los indicadores sociales (...) son estadísticas, serie estadística o cualquier forma de indicación que nos facilita estudiar dónde estamos y hacia dónde nos dirigimos con respecto a determinados objetivos y metas, así como evaluar programas específicos y determinar su impacto.

Adoptaremos la premisa de que un indicador es una estadística que facilita nuestra visión sobre una situación actual dada y nos permite hacer hipótesis sobre el estado futuro de un producto o proceso. Existen además ciertas características que los indicadores con carácter cuantitativo poseen: -Inscripción en un marco teórico o conceptual: que le permita asociarse firmemente con el evento al que el investigador pretende dar forma. -Especificidad: la vinculación con los fenómenos económicos, sociales, culturales o de otra naturaleza sobre los que se pretende actuar. -Ser explícitos: de tal forma que su nombre sea suficiente para entender si se trata de un valor absoluto o relativo, de una tasa, una razón o un índice. -Disponibilidad temporal y comparabilidad: La comparabilidad es un insumo que permite fomentar el desarrollo social o económico de acuerdo con lo que tenemos respecto a los demás o a otros momentos; de hecho, nociones socioeconómicas como producción, pobreza y trabajo sólo son comprensibles en términos relativos -Relevancia y pertinencia: para la aplicación de políticas, describiendo la situación prevaleciente en los diferentes sectores de gobierno, permitiendo establecer metas y convertirlas en acciones -Actuación en conjunto: para tener una evaluación completa de un sector o un sistema, se requiere de un conjunto de indicadores que mida el desempeño de las

distintas dependencias y/o sectores y proporcione información acerca de la manera como éstos trabajan conjuntamente para producir un efecto global. -Orientación socio-económica: Es importante considerar el costo-beneficio del tiempo y los recursos necesarios para su construcción, por lo que, de preferencia, debe ser medibles a partir del acervo de datos disponible.

En el caso específico del diseño sustentable, la valoración del impacto ambiental que cualquier producto hace en el ambiente, desde la extracción de su materia prima, hasta su desecho, se define como el ciclo de vida de un producto (LCA), podemos asociar al análisis general LCA, los coeficientes de análisis del ecoindicador 99. Ahora bien, los dos problemas principales que el manual del ecoindicador 99 plantea para el uso del LCA en el proceso de diseño son:

1.-La dificultad de interpretar el análisis completo del ciclo de vida. Aunque es posible integrar variables relacionadas a un sector determinado, no es posible determinar el impacto ambiental total. La razón principal obedece a la falta de coeficientes mutuos de impactos ambientales. 2.-La recopilación cuidadosa de los datos ambientales de los ciclos de vida de un producto, es una tarea compleja y lleva mucho tiempo. Por tanto, un análisis exhaustivo del ciclo de vida de un producto es improcedente. (1999: p.A-5)

Para ofrecer una propuesta de solución a estos problemas, el método LCA integra un método de coeficientes de ponderación que arrojan un solo valor para el impacto ambiental total con base en los cálculos efectuados; por otra parte, tratándose de materiales y procesos, los datos ya se han calculado previamente. A este valor se le conoce como eco-indicador.

DECISIONES CUANTITATIVAS Y METODOLOGIA AHP El indicador es una entidad sometida a los supuestos de la probabilidad y la estadística, sujetos a la rigurosidad y especificidad de un marco teórico, sin embargo, es importante observar la importancia de la orientación socio-económica

que se liga a la toma de decisiones a nivel institucional en el ámbito internacional, pero sobre todo, nacional. En México, los indicadores dados por instancias como INEGI, siguen el esquema conceptual Presión-Estado-Respuesta (PER) que se adapta y retoma por la ONU, para la elaboración de algunos manuales sobre estadísticas ambientales, concebidos para su integración a los sistemas de contabilidad física y económica. En 1993 se definió un grupo medular de indicadores ambientales en varios temas seleccionados para la evaluación del desempeño ambiental. El esquema PER es tan sólo una herramienta analítica que trata de categorizar o clasificar la información sobre los recursos naturales y ambientales a la luz de sus interrelaciones con las actividades sociodemográficas y económicas. Se basa en el conjunto de interrelaciones siguientes: las actividades humanas ejercen presión (P) sobre el ambiente, modificando con ello la cantidad y calidad, es decir, el estado (E) de los recursos naturales; la sociedad responde (R) a tales transformaciones con políticas generales y sectoriales (tanto ambientales como socioeconómicas), las cuales afectan y se retroalimentan de las presiones de las actividades humanas. Este indicador tiene dos funciones básicas: la reducción del número de mediciones y parámetros que normalmente se requieren para reflejar una situación dada y la simplificación del proceso de comunicación con el usuario.

Fig. 2 Esquema del modelo presión-estado-respuesta. Fuente: INEGI, 2003

De este esquema conceptual, se desprende la metodología que produce los indicadores socioeconómicos en México. La Matriz Simétrica de Insumo-Producto basada en el modelo de Wassily Leontief,

representa un instrumento

indispensable para el análisis y la planificación económica de un país, permite analizar impactos sectoriales de incrementos salariales o del tipo de cambio y obtener indicadores que permiten comprender la estructura del tejido productivo; encontrar sectores denominados “clave”, cuyos vínculos intersectoriales tienen considerables efectos multiplicadores sobre el ingreso y el empleo. También nos permite medir los niveles de dependencia con el exterior, tanto a nivel sectorial como en términos agregados. (INEGI, 2003)

El criterio de mejor elección se define también a partir de una matriz de ponderación de la forma: 𝑚

𝑆𝑗= � 𝜔𝛼𝑖𝑗 𝑖=1

Alternativa 1 Criterio1 Criterio 2 . .

𝜔1

𝜔2 .

.

. Criterio m

.

𝜔𝑚

Puntuación

𝛼11

Alternativa 2

...

𝛼12

...

.

...

Alternativa n

𝛼1𝑛

𝛼21

𝛼22 .

.

.

.

.

.

.

𝛼𝑚1

𝛼𝑚2

𝑖=1

𝑖=1

𝑚

𝑚

𝑆1 = � 𝜔1 𝛼𝑖1 𝑆2 = � 𝜔1 𝛼𝑖2

𝛼2𝑛

...

... ...

.

𝛼𝑚𝑛 𝑚

𝑆𝑛 = � 𝜔1 𝛼𝑖𝑛 𝑖=1

Fig. 3 matriz de decisión Fuente: (Ford,Coulston, 2008)

La función utilizada para la reducir sesgos (bias) en la matriz de decisión es la media geométrica. Para un conjunto de números 𝑎1 , 𝑎2 , … , 𝑎𝑛 la media es:

�∏𝑛𝑛=1 𝑎 = 𝑛√𝑎1 𝑎2 … 𝑎𝑛

𝑛

La media geométrica normaliza los conjuntos de ponderación y restringe el peso total de los criterios propuestos a la unidad. � 𝜔1 = 1 𝑖

La matriz de ponderación sirve para tomar la mejor elección de acuerdo a una escala

numérica

normalizada

a

1.

(función

colectivamente

exhaustiva)

Dependiendo de nuestras intenciones de cálculo, aquella alternativa con el coeficiente más alto o más bajo, es la que mayor impacto ofrece a nuestras decisiones.

CAMBIO DE BASE TEÓRICA EN LA INTENCIÓN ECONÓMICA EN LA TOMA DE DECISIÓN: Es conveniente reflexionar sobre el trasfondo económico que sostiene el criterio de decisión al estimar el ciclo de vida de un producto mediante el uso de un indicador. El análisis exhaustivo de las teorías económicas subyacentes a los procesos de toma de decisión en el diseño, exceden el alcance de este trabajo. Sin embargo, expongo un panorama general de comparación entre las teoría de utilidad esperada (TUE) y la teoría prospectiva (T.P) que cuestiona los principios de racionalidad para lograr la máxima utilidad y aquellas teorías que sostienen una decisión más intuitiva bajo un panorama de riesgo. Las teorías de racionalidad perfecta asumen que existe una consistencia lógica entre individuos, medios y fines y, por tanto, suponen la posibilidad de optimizar en el momento que el agente decide y a medida que pasa el tiempo. (Véanse las características de los indicadores citadas líneas arriba) También asumen la existencia de un ordenamiento de las preferencias (las cuales se toman como dadas e invariables), sobre el cual el agente pueda maximizar la utilidad derivada de los resultados de sus decisiones, en un contexto de certeza, en uno riesgoso o en uno incierto. En estas teorías de racionalidad perfecta encontramos el modelo de la utilidad esperada (TUE)

Podemos resumir los supuestos de esta teoría de la siguiente forma:

1) Quien toma las decisiones tiene una bien definida función de utilidad (la cual envuelve la diversidad de valores humanos) y puede asignar un número cardinal que expresa la intensidad de su preferencia por un conjunto de sucesos futuros. 2) Las alternativas a elegir están bien definidas, y abarcan el presente y el futuro. 3) El elector conoce bien las consecuencias de cada alternativa (o estrategia), a tal punto que puede asignar una distribución de probabilidad conjunta a todas las series de hechos futuros. 4) Quien elige escogerá la opción o estrategia que maximice el valor esperado de su propia función de utilidad. (Simon, 1989, citado en Santiago, 2008)

De acuerdo al mismo autor (idem, 2008) Dentro de la Teoría de la Utilidad Esperada, un problema persistente ha sido la noción de la utilidad y la posibilidad de su medición, problema soslayado asumiendo la imposibilidad de una medición “objetiva” para un fenómeno “subjetivo”. Santiago sostiene de acuerdo a Simon (1989) que la teoría de la elección racional es un doble fraude y un instrumento mercenario. El doble timo de tal teoría se produce porque omite tratar el problema de las creencias (no reconoce que unos mismos hechos pueden ser interpretados de manera distinta por personas diferentes) y, además, evita considerar la diversidad de valores (no reconoce que las personas tienen fines diversos distintos a la maximización de la utilidad). En consecuencia, tal teoría, en el mejor de los casos (es decir, que funcionara en realidad), ayudaría a responder cómo decidir y, por tanto, estaría al servicio de seres con finalidades y valores completamente diferentes. Una elección orientada a decisiones económicas de máxima utilidad en estructuras complejas como la sustentabilidad, elimina factores determinantes de los conjuntos ambientales y sociales, para supeditarlos al conjunto económico.

La tragedia de los comunes es el ejemplo generalización del dilema del prisionero ideada por James Hardin. En este juego existen n jugadores que hacen uso de un bien común (como por ejemplo, un terreno comunal).

Fig. 4 La tragedia de los comunes como estrategia de juego en equilibrio.

Aunque cada jugador puede participar en el cuidado de este bien (lo que conlleva un costo para el que lo hace), todos los jugadores tienen derecho a usarlo, lo cuiden o no. De este modo tenemos un juego n-personal donde cada jugador tiene dos estrategias: egoísta o solidario, y donde la estrategia egoísta es dominante estricta, es decir, para cualquier perfil de estrategias puras el jugador j puede mejorar su pago si elige la estrategia egoísta en lugar de la solidaria. De este modo, el juego sólo tiene un equilibrio de Nash en estrategias puras y es todos egoístas. A pesar de que, como en el dilema del prisionero, el beneficio para cada jugador termina siendo mucho menor que si todos hubieran elegido ser solidarios. Debido a que la ruina común es el único equilibrio de Nash, los gobiernos recurren a medidas externas para intentar cambiar los pagos por ser egoísta y llevar a nuevos equilibrios. La recurrencia a medidas regulatorias coercitivas es una estrategia que obliga a los individuos a dejar la estrategia eminentemente egoísta y se conduzcan a efectuar una estrategia solidaria, como un contrato en un juego cooperativo. Aunque la tendencia del individuo normalmente es egoísta, la elección de una estrategia individual depende de condiciones no cuantificables, como la ideológica o la sociológica que nublan el horizonte de perfecta racionalidad. Kahneman y Tversky (1979) comenzaron a desarrollar una serie de experimentos para analizar la toma de decisiones bajo riesgo e incertidumbre, Bajo el nombre de teoría de

prospectos o de la elección riesgosa, los autores incorporan, al menos, dos hallazgos fundamentales en la conducta del agente que decide: primero, su aversión a perder y, segundo, su ponderación de probabilidades y proponen una función de valoración subjetiva para prospectos riesgosos con n resultados: 𝑉(𝑥1 , 𝑝1 ; 𝑥2 , 𝑝2 ) = 𝜋(𝑝1 )𝑣(𝑥1 ) + ⋯ + 𝜋(𝑝𝑛 )𝑣(𝑥𝑛 ), ∀𝑥𝑖 ≠ 0 𝑐𝑜𝑛 � 𝑝𝑖 ≤ 1 Las 𝜋(𝑝 ) son funciones de las probabilidades asociadas a cada alternativa

denominadas como funciones de ponderación; mientras que las 𝑣(𝑥) son llamadas funciones de valoración subjetiva, es decir, a cada función de ponderación

evaluada en el modelo, se incorpora un factor de subjetividad que incide en el resultado final del cálculo en el modelo.

INDICADORES CUALITATIVOS Y RNA Una neurona formal de McCulloch-Pitts es un discriminante que divide el espacio de entrada en dos regiones separadas por un hiperplano (o una recta si, como en los ejemplos, el espacio de entrada es bidimensional). Por lo tanto, un perceptrón, es un conjunto de Ns neuronas de McCulloch-Pitts que comparten las entradas, divide el espacio de entrada en 2Ns regiones separadas por hiperplanos. Así pues, un perceptrón será una herramienta de clasificación apropiada siempre que las clases definidas en el espacio de entrada sean separables mediante rectas (o hiperplanos)

Fig. 5 Modelo neuronal de Mc Cullough-Pitts. Fuente: UNED

Podemos notar la similitud del modelo neuronal de McCullough-Pitts, con el operador de suma de elementos en la matriz de ponderación convencional, la diferencia sensible se verifica en la asignación de la función umbral, puesto que debe evaluarse 𝑁𝑒

𝑦𝑗 = 𝑔(𝑎) = 𝑔 �� 𝜔𝑖 𝑥𝑖� 𝑖=1

Fig. 4 gráficas de transición de estado en la función umbral Fuente: UNED 2007

La función 𝑦𝑗 = 𝑔(𝑎) se convierte en la función umbral del conjunto de variables

dado, y alterna sus estados entre 0 y 1. Cuando no se cumplen los requisitos previamente solicitados, la función permanece en 0 y no se activa, cuando se igualan o superan las condiciones iniciales, la función se activa.

No existen modelos neuronales de un solo elemento, capaces de separar el espacio de entrada en dos regiones que contengan todos los puntos correspondientes a cada clase. Si aumentamos el número de neuronas en el modelo, aumentaremos el número de clases pero no conseguiremos que los puntos de la misma clase produzcan una misma salida (problema no separable linealmente), no obstante las bondades del sistema, esto representa una limitación de la capacidad de clasificación. Hemos incluido este ejemplo, por la similitud en las características de las variables entre un modelo de matriz jerárquica y la disposición neuronal y la transición de estados, por esto, es necesario ampliar el arreglo. Widrow et al. (1995) proponen un modelo de mayor eficacia y menor linealidad que la neurona simple de McCullogh-Pitts denominado adaline. (Adaptative Linear Network)

Fig. 5 el modelo de red neuronal adaline. Fuente Widrow et al. 2005

Esta red neuronal disminuye la linealidad de la elección incorporando simultáneamente variables en interacción continua cuyos estados alternantes totales no son linealmente dependientes. Supongamos en este ejemplo que 𝑥1𝑘

implica el proceso de extracción de una materia prima y que 𝑥3𝑘 implica la

normatividad de una región geográfica definida, en la primera capa del adaline, se evalúa la interacción entre variables que conforman un primer estado de red, al incorporar un nuevo conjunto de variables, la segunda capa de adalines presenta

los estados más fuertes. La capa de salida ha evaluado ya la interaccion de la mayoría de las variables presentes (objetivas y subjetivas) y emite una cantidad (vectorial o escalar) mas acorde con un contexto especifico.

ALGORITMOS GENÉTICOS PARA LA TOMA DE DECISIONES Los algoritmos genéticos mantienen las variaciones en la población y crean nuevos individuos a partir de los anteriores. Los dos operadores más comunes de un algoritmo genético son la combinación y la mutación. Estos operadores incorporan a la ecuación de la decisión subjetiva, el elemento de aleatoriedad que, mediante la evaluación de las nuevas cadenas de hipótesis, posibilitan el mejoramiento de las hipótesis iniciales.

Fig. 4 esquema gráfico de operadores en algoritmos genéticos. Fuente: Husbands et al (2007)

Las hipótesis en un algoritmo genético son representadas por lo general como cadenas de bits, de forma que puedan ser fácilmente manipuladas por los operadores de cruce y mutación. Las hipótesis representadas de esta manera pueden ser bastante complejas.

Fig. 6 esquema general de los algoritmos evolucionarios fuente: Husbands et al (2007)

Guerra (2004) desarrolla un modelo generalizado de pseudocódigo que ofrece la mejor hipótesis, de acuerdo al proceso ilustrado en la figura anterior.

1.-Función AG(adaptación, umbral, p, r, m) //declaración de nombre de la función y las variables globales y locales// 2.-input: adaptación: función de adaptación; //variables de entrada// umbral: adaptación suficiente para parar; //polarización (bias)// p: número de hipótesis en la población; r: fracción de la población a substituir; m: tasa de mutación; static: pob: población; //el modificador static permite compartir el valor de una variable entre miembros de la misma clase// pobAux: caché para recalcular población; 3.-output: maxh; //devuelve la hipótesis con mejor adaptación// pob ← generadorHipótesis(p); //variables de salida// {{foreach h in pob do adaptación(h); end foreach} {while maxAdaptación(pob) < umbral do pobAux ← selección((1 − r) × p, pob);

pobAux ← pobAux ∪ cruce((r × p)/2, pob); pobAux ← mutar(m, pobAux); pob ←pobAux; {foreach h in pob do adaptación(h); end foreach} endwhile} return maxh ← maxAdaptación(pob); endfun} Este pseudocódigo permite la incorporación de n hipótesis o conjuntos de hipótesis, sometidas constantemente a la evaluación evolutiva (la más apta es la mejor por el momento, hasta que se evalúe otra con mejores posibilidades) Los dos esquemas presentados (las redes neuronales y los algoritmos evolutivos) trabajan en conjunto, los algoritmos evolutivos, combina y mutan las hipótesis iniciales, y las redes neuronales articulan los conjuntos de hipótesis que nos permiten obtener un indicador mejorado.

CONCLUSIONES El diseñador tiene la gran responsabilidad de actuar de acuerdo con las herramientas, modelos y procesos que permitan modificar su marco escogencial en el proceso de toma de decisiones, de tal forma que no utilice modelos cuantitativos pre-analizados sin tomar en cuenta factores territoriales, sociales, psicológicos y tecnológicos particulares. El alcance de este trabajo sólo vislumbra la posibilidad de elegir un modelo más adecuado a la complejidad subyacente en la toma de decisiones en la elección de materiales para el diseño sustentable y abre la posibilidad de que el diseñador, desde su contexto sociocultural particular, incorpore elementos de elección subjetiva que los indicadores y sus metodologías pueden pasar por alto. BIBLIOGRAFIA: -Ackhar Marcel, Indicadores de sostenibilidad, Ordenamiento Ambiental del Territorio. Comisión Sectorial de Educación Permanente. DIRAC, Facultad de Ciencias. Montevideo. 104pp. 2005.

-Curran Mary Ann, Life cycle assessment: principles and practice, Scientific applications International corporation (SAIC), 2006. -Ferguson Thomas, Game Theory, Mathemathics department UCLA, en linea, disponible en http://www.math.ucla.edu/~tom/Game_Theory/Contents.html -Ford Ralph, Coulston Chris, Design for electrical and computer engineers: theory, concepts and practice, Editorial McGraw Hill, 2008 -Goedkoop Mark et al., Anexo Eco indicador 99: Método para evaluar el impacto ambiental en el ciclo de vida, Pre. Consultants, 1999. -Guerra Hernández Alejandro, Aprendizaje automático, algoritmos genéticos, maestría en ingeniería artificial, Universidad de Veracruz, 2004 -Grossman Stanley, Álgebra lineal, Editorial McGraw Hill, 5ta. Edición, 1997 -Husbands Phil et Al. An introduction to evolutionary computing for musicians, Evolutionary computer music, Ed. Springer Verlag, 2007. pp 1-27 -INEGI, Indicadores de desarrollo sustentable en México, en línea, disponible en http://www.inegi.gob.mx/prod_serv/contenidos/espanol/bvinegi/productos/integracion/espe ciales/indesmex/2000/ifdm2000f.pdf, 2000 ( -Kahneman Daniel, Tversky Amos, Prospect theory: An analysis of decision under risk, Econometrica vol. 47 marzo 1979, p.263-291, traducción de Hilda Gambaro. -Oviedo Jorge, Teoría de juegos no cooperativa, 1ª. Escuela de modelos matemáticos de comportamiento

económico,

Merlo,

2005

(En

línea)

disponible

en

http://www.mmce2005.unsl.edu.ar/Cursos/JuegosNoCooperativos.pdf (16 de abril 2012, 18:45) -Mondragon Pérez Angélica, ¿Qué son los indicadores? INEGI, Notas: revistas de información y análisis, 2002 pp. 52-58 -Santiago Juan, Cante Freddy, Intuición, sesgos y heurísticas en la elección, -UNED, Sistemas basados en el conocimiento: introducción a la Neurocomputación, -Widrow Bernard, Lehr Michael, Perceptrons, adalines, and backpropagation, Handbook of Brain Theory and Neural Networks, MIT Press, 1995. pp. 719-724

Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.