lunes, 8 de diciembre de 2014

fibra óptica y la nanotecnologia

Gracias a que la fibra óptica se está convirtiendo en uno de los medios de transmisión de datos más habituales, todos estamos familiarizados con el hecho de que la luz puede utilizarse como medio de transmisión en las comunicaciones. Sin embargo éste no es más que uno de los múltiples dispositivos ópticos presentes en la tecnología que utilizamos todos los días. La luz es incluso el elemento clave en varios tipos de sensores biomédicos y medioambientales.
La nanotecnología también puede aportar mejoras en el campo de los dispositivos ópticos. Gracias a ella y al profundo conocimiento científico del profesor Gaspar Armelles y del resto de investigadores de su grupo del Instituto de Microelectrónica de Madrid (IMM-CSIC), estamos en camino de poder disfrutar de dispositivos de menor tamaño, capaces de realizar un mayor control de la luz y de biosensores más sensibles que permitan la detección temprana de enfermedades.
Mónica Luna- ¿Nos podría explicar qué es la fotónica?
Gaspar Armelles- Es la ciencia que estudia todos los aspectos de la luz, la generación, la transmisión, la detección, etc.,
M. L.- ¿Cuál es el impacto de la nanotecnología en la fotónica?
G. A.- Su impacto se ve reflejado en diversas áreas que van desde la fabricación de nuevos materiales al desarrollo de nuevos dispositivos. Por ejemplo, la nanotecnología ha permitido incorporar a los dispositivos ópticos una nueva forma de propagar y manipular la luz a escala nanométrica, utilizando unos modos híbridos que son mitad luz mitad oscilación de carga, conocidos como plasmones. Gracias a la nanotecnología podemos controlar dichos efectos y utilizarlos para el desarrollo de nuevas estructuras o dispositivos
M. L.- ¿Qué tienen de particular los plasmones?
Gaspar Armelles.
Gaspar Armelles.
G. A.- Al contario de lo que le ocurre a la luz, que se propaga tanto en el vacio como en los materiales, los plasmones, al ser oscilaciones de carga, están ligados a un material. En concreto, se propagan por la intercara entre dos materiales, uno metálico y otro dieléctrico, por lo que manipulando esta intercara podemos modificar las propiedades de los mismos. Por otra parte, al ser su 'otra mitad' luz, esta se verá afectada por lo que les hacemos a las oscilaciones de carga, y de este modo podemos controlar la luz a nivel nanométrico. Por ejemplo, si se colocan dos discos de oro de unos 60 nm. de espesor separados unos pocos nanómetros, en el espacio entre ellos podemos llegar a tener intensidades de luz muy grandes. Los discos se comportan como concentradores de luz, confinándola en un volumen manométrico. Esto no se puede logra utilizando dispositivos ópticos convencionales.
[foto de la noticia]
Estas imágenes sirven para ejemplificar los efectos ópticos que provocan los plasmones. Sobre un vidrio se han depositado discos de oro de tamaño nanométrico (80 nm. de diámetro y 60 nm. de altura). Al iluminarlo por detrás, la zona que tiene discos se ve azul claro. Si se ilumina lateralmente la zona de los discos se ve rojiza. Esta diferencia se debe a la dispersión de la luz por parte de los plasmones de los discos de oro.
M. L.- ¿Qué aplicaciones tienen estos plasmones?
G. A.- Los plasmones se están empelando en diversas áreas, como por ejemplo, para desarrollar células solares más eficientes, para manipular la emisión de láseres de diodo, permiten hacer lentes que concentran y coliman los haces que salen de estos dispositivos o para desarrollar sensores para aplicaciones biomédicas o de medioambiente.
M. L.- ¿En qué está centrada su investigación en la actualidad?
G. A.- Parte de nuestra investigación está encaminada a conseguir que las propiedades ópticas de estas estructuras se puedan controlar externamente, para lo que estamos incorporando materiales magnéticos a los dispositivos plasmónicos. De esta forma somos capaces de modificar la respuesta óptica del sistema al aplicar un campo magnético. Podemos así dirigir la propagación de luz a través de un dispositivo, controlando, no como se propaga el fotón, sino cómo se propaga el plasmón, por lo que el dispositivo final es más pequeño. A estas estructuras o materiales se les llama magneto-plasmónicos.
En la imagen que se muestra al comienzo del artículo se pueden observar nanopirámides magneto-plasmónicas. Estas pirámides estas constituidas por capas de oro, cobalto y oxido de silicio. Controlando a nivel nanométrico la distancia y el espesor entre estas capas, se consigue materiales activos, es decir, materiales cuyas propiedades dependen del campo magnético aplicado o sensores con propiedades 'a la carta'
M. L.- ¿Cuáles son las aplicaciones de su investigación?
G. A.- Los materiales o estructuras magneto-plasmónicos tienen aplicaciones en el campo de los materiales ópticos, dispositivos activos y sensores. Por ejemplo, hemos desarrollado sensores con sensibilidades 10 veces superiores a las de los sensores que utilizan estructuras plasmónicas no activas. Estos sensores se podrán utilizar, por ejemplo, en el diagnóstico de diversos tipos de enfermedades o para la detección de contaminantes.

nanochips

CONCEPTO:
La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas (nanomateriales). Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros. Se tiene una idea de lo pequeño que puede ser un nanobot sabiendo que un nanobot de unos 50 nm tiene el tamaño de 5 capas de moléculas o átomos -depende de qué esté hecho el nanobot-.
Nano es un prefijo griego que indica una medida (10-9 = 0,000 000 001), no un objeto; de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja.
DEFINICION:
La nanotecnología es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala. Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas. La nanotecnología promete soluciones vanguardistas y más eficientes para los problemas ambientales, así como muchos otros enfrentados por la humanidad.
Historia
El ganador del premio Nobel de Física (1965), Richard Feynman fue el primero en hacer referencia a las posibilidades de la nanociencia y la nanotecnología en el célebre discurso que dio en el Caltech (InstitutoTecnológico de California) el 29 de diciembre de 1959 titulado En el fondo hay espacio de sobra (There’s Plenty of Room at the Bottom).

Otras personas de esta área fueron Rosalind FranklinJames Dewey Watson y Francis Crick quienes propusieron que el ADN era la molécula principal que jugaba un papel clave en la regulación de todos los procesos del organismo y de aquí se tomó la importancia de las moléculas como determinantes en los procesos de la vida. Aquella podría usarse para solucionar muchos de los problemas de la humanidad, pero también podría generar armas muy potentes.

Pero estos conocimientos fueron más allá, ya que con esto se pudo modificar la estructura de las moléculas como es el caso de los polímeros o plásticos que hoy en día encontramos en nuestros hogares. Pero hay que decir que a este tipo de moléculas se les puede considerar “grandes”.

Con todos estos avances el hombre tuvo una gran fascinación por seguir investigando más acerca de estas moléculas, ya no en el ámbito de materiales inertes, sino en la búsqueda de moléculas orgánicas en nuestro organismo.

Hoy en día la medicina tiene más interés en la investigación en el mundo microscópico ya que en él se encuentran posiblemente las alteraciones estructurales que provocan la enfermedad, y no hay que decir de las ramas de la medicina que han salido mas beneficiadas como es la microbiología, inmunología, fisiología; en fin, casi todas las ramas de la medicina.

Con todos estos avances han surgido nuevas ciencias, por ejemplo, la Ingeniería Genética que hoy en día es discutida debido a repercusiones como la clonación o la mejora de especies.
Inversión
Algunos países en vías de desarrollo ya destinan importantes recursos a la investigación en nanotecnología. La nanomedicina es una de las áreas que más puede contribuir al avance sostenible delTercer Mundo, proporcionando nuevos métodos de diagnóstico y cribaje de enfermedades, mejores sistemas para la administración de fármacos y herramientas para la monitorización de algunos parámetros biológicos.

Actualmente, alrededor de 40 laboratorios en todo el mundo canalizan grandes cantidades de dinero para la investigación en nanotecnología. Unas 300 empresas tienen el término “nano” en su nombre, aunque todavía hay muy pocos productos en el mercado.

Algunos gigantes del mundo informático como IBMHewlett-Packard (‘HP)’ NEC e Intel están invirtiendo millones de dólares al año en el tema. Los gobiernos del llamado Primer Mundo también se han tomado el tema muy en serio, con el claro liderazgo del gobierno estadounidense, que para este año ha destinado 570 millones de dólares a su National Nanotechnology Initiative.

En España, los científicos hablan de “nanopresupuestos”. Pero el interés crece, ya que ha habido algunos congresos sobre el tema: en Sevilla, en la Fundación San Telmo, sobre oportunidades de inversión, y enMadrid, con una reunión entre responsables de centros de nanotecnología de FranciaAlemania y Reino Unido en la Universidad Autónoma de Madrid.

Las empresas tradicionales podrán beneficiarse de la nanotecnologia para mejorar su competitividad en sectores habituales, como textil, alimentación, calzado, automoción, construcción y salud. Lo que se pretende es que las empresas pertenecientes a sectores tradicionales incorporen y apliquen la nanotectologia en sus procesos con el fin de contribuir a la sostenibilidad del empleo. Actualmente la cifra en uso cotidiano es del 0,1 %. Con la ayuda de programas de acceso a la nanotecnologia se prevé que en 2014 sea del 15 % en el uso y la producción manufacturera.
Ensamblaje interdisciplinario
La característica fundamental de nanotecnología es que constituye un ensamblaje interdisciplinar de varios campos de las ciencias naturales que están altamente especializados. Por tanto, los físicos juegan un importante rol no sólo en la construcción del microscopio usado para investigar tales fenómenos sino también sobre todas las leyes de la mecánica cuántica. Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la química un papel importante. En medicina, el desarrollo específico dirigido a nanopartículas promete ayuda al tratamiento de ciertas enfermedades. Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser una tecnología convergente.
Una posible lista de ciencias involucradas sería la siguiente:

NanoingenieriaNanotecnología avanzada
La nanotecnología avanzada, a veces también llamada fabricación molecular, es un término dado al concepto de ingeniería de nanosistemas (máquinas a escala nanométrica) operando a escala molecular. Se basa en que los productos manufacturados se realizan a partir de átomos. Las propiedades de estos productos dependen de cómo estén esos átomos dispuestos. Así por ejemplo, si reubicamos los átomos delgrafito (compuesto por carbono, principalmente) de la mina del lápiz podemos hacer diamantes (carbono puro cristalizado). Si reubicamos los átomos de la arena (compuesta básicamente por sílice) y agregamos algunos elementos extras se hacen los chips de un ordenador.
A partir de los incontables ejemplos encontrados en la biología se sabe que miles de millones de años de retroalimentación evolucionada puede producir máquinas biológicas sofisticadas y estocásticamenteoptimizadas. Se tiene la esperanza que los desarrollos en nanotecnología harán posible su construcción a través de algunos significados más cortos, quizás usando principios biomiméticos. Sin embargo, K. Eric Drexler y otros investigadores han propuesto que la nanotecnología avanzada, aunque quizá inicialmente implementada a través de principios miméticos, finalmente podría estar basada en los principios de laingeniería mecánica.
Determinar un conjunto de caminos a seguir para el desarrollo de la nanotecnología molecular es un objetivo para el proyecto sobre el mapa de la tecnología liderado por Instituto Memorial Battelle (el jefe de varios laboratorios nacionales de EEUU) y del Foresigth Institute. Ese mapa debería estar completado a finales de 2006.
Futuras aplicaciones
Según un informe de un grupo de investigadores de la Universidad de Toronto, en Canadá, las quince aplicaciones más prometedoras de la nanotecnología son:[cita requerida]
  • Almacenamiento, producción y conversión de energía.
  • Armamento y sistemas de defensa.
  • Producción agrícola.
  • Tratamiento y remediación de aguas.
  • Diagnóstico y cribaje de enfermedades.
  • Sistemas de administración de fármacos.
  • Procesamiento de alimentos.
  • Remediación de la contaminación atmosférica.
  • Construcción.
  • Monitorización de la salud.
  • Detección y control de plagas.
  • Control de desnutrición en lugares pobres.
  • Informática.
  • Alimentos transgénicos.
  • Cambios térmicos moleculares (Nanotermología

Sincronización de onda cerebral

Sincronización de onda cerebral 
Sincronización de onda cerebral o "sincronización de ondas cerebrales," es cualquier práctica que apunta a que las frecuencias de ondas cerebrales que se dividen en paso con un estímulo periódica que tiene una frecuencia correspondiente a la cerebro-estado deseado, por lo general tratado con el uso de software especializado. Depende supuestamente en una "frecuencia siguiente" respuesta en el supuesto de que el cerebro humano tiene una tendencia a cambiar su frecuencia de EEG dominante hacia la frecuencia de un estímulo externo dominante. Tal es a menudo un estímulo auditivo, como en el caso de golpes binaural o monoaural y tonos isocrónica, o bien visuales, como con un Dreamachine, una combinación de los dos con una máquina de la mente, o incluso la radiación electromagnética.

Historia

Los entusiastas de las ondas cerebrales arrastre reclamación que se ha observado o se utilizan en una forma u otra desde hace siglos, de un uso sociedades chamánicas 'de golpes de tambor de Ptolomeo observando en 200 AD los efectos de parpadeo de la luz solar generada por una rueda que gira. En los años 1930 y los años 40, con el entonces nuevo equipo de EEG y las luces estroboscópicas, William Grey Walter realizó algunas de las primeras investigaciones científicas sobre el tema. Más tarde, en los años 1960 y 70, el interés por los estados alterados llevó a algunos artistas que se interesan en el tema, sobre todo Brion Gysin, quien junto con un estudiante de matemáticas de Cambridge, inventó la Dreamachine. Desde la década de 1970 hasta la fecha se han realizado numerosos estudios y diversas máquinas construidas que combinan luz y sonido. Estos esfuerzos fueron ayudados por el desarrollo continuo de los avances electrónicos micro-circuitos y otras que permitieron equipos cada vez más sofisticados. Uno de los resultados científicos observados con mayor frecuencia reclamado en concepto de sincronización de onda cerebral fue el descubrimiento de latidos binaurales, publicado en Scientific American en 1973 por Gerald Oster. Sin embargo, la investigación de Oster en realidad no hace ninguna mención de las ondas cerebrales. Con el desarrollo de tonos isocrónica de Arturo Manns, combinados con equipo más sofisticado, estos descubrimientos condujeron a muchos intentos de utilizar las técnicas de sincronización de onda cerebral reivindicados en el tratamiento de numerosas condiciones psicológicas y fisiológicas.

Arrastre Aural

Binaural beats

Binaural beats merecen una mención especial debido a la forma en que se obtienen las frecuencias deseadas. Sincronización de onda cerebral puede conseguirse cuando las señales de audio se introducen en el cerebro que causa una respuesta directamente relacionada con la frecuencia de la señal introducida, llamado binaural beats. Dos tonos cercanos en frecuencia generan una frecuencia de batido, a la diferencia de las frecuencias, que generalmente es subsónico. Por ejemplo, un tono de 495 Hz y 505 Hz tono producirán un subsónico 10 Hz ritmo, más o menos en el centro de la gama alfa. La "frecuencia de la portadora", también se dice por algunos que afectan a la calidad de la experiencia transformadora. Tenga en cuenta que este efecto se consigue sin cualquier oído oír el pulso cuando se utilizan auriculares. En su lugar, el cerebro produce el pulso mediante la combinación de los dos tonos. Cada oído oye sólo un tono constante. Aunque algunos han afirmado que estas frecuencias sí ofrecen ayuda en el tratamiento de ciertas condiciones médicas, no hay una amplia aceptación por parte de la comunidad médica para adoptar la práctica de sincronización de onda cerebral para los trastornos emocionales/mentales. A, frecuencia constante fija de la sincronización es menos útil que las técnicas como neurofeedback clásica o la meditación de aprendizaje, lo que naturalmente genera frecuencias de ondas cerebrales que difieren de persona a persona y pueden variar de un minuto a otro.

Latidos monoaural

Binaural beats fueron descubiertos por primera vez en 1839 por H. Dove, un investigador alemán. En ese momento, binaural beats fueron considerados como un caso especial de latidos monoaurales. Binaural beats no son los mismos que latidos monoaural. Binaural beats son percibidos por la presentación de dos tonos diferentes en momentos ligeramente diferentes tonos por separado en cada oído. Este efecto se produce en el cerebro, no en los oídos como con ritmos monoaurales. Es producido por la salida neuronal de las orejas y creado dentro del cuerpo olivar dentro del cerebro, en su intento de "localizar" la dirección del sonido sobre la base de la fase.
Sólo latidos monoaurales son el resultado de la suma aritmética de las formas de onda de los dos tonos como sumar o restar uno del otro, convirtiéndose más y más silencioso y más fuerte de nuevo.
Latidos monoaural y binaural rara vez se encuentran en la naturaleza, sino en los objetos hechos por el hombre, latidos monoaurales se producen con frecuencia. Por ejemplo, dos grandes motores que funcionan a velocidades ligeramente diferentes enviarán "oleadas" de las vibraciones a través de la cubierta de un barco o un avión a reacción. El tono agudo inferior se llama el transportista y el tono superior se llama desplazamiento.
Latidos monoaural se producen al aire libre y externas a los oídos. Por ejemplo, cuando dos cuerdas de la guitarra de frecuencias ligeramente diferentes se pulsan simultáneamente, latidos monoaurales golpean el oído como pulsaciones y por lo tanto excitan el tálamo, una acción crucial para el arrastre. Binaural beats jugado a través de altavoces convierten latidos monoaural. Tonos binaurales requieren auriculares para ser eficaz.
Para escuchar latidos monoaurales, ambos tonos deben ser de la misma amplitud. Sin embargo binaural beats pueden ser escuchados cuando los tonos tienen diferentes amplitudes. Incluso se puede escuchar si uno de los tonos está por debajo del umbral de audición. El ruido reduce el volumen percibido de latidos monoaural mientras que el ruido en realidad aumenta el volumen de los latidos binaurales.

Tonos isocrónica

"Tonos isocrónica se espacian uniformemente tonos que se encienden y apagan rápidamente." A diferencia binaural beats y monoaural, tonos isochronic no se basan en la combinación de dos tonos - el "beat" se crea manualmente girando un tono de encendido y apagado. Ampliamente considerado como el método basado en el tono más eficaz, golpes isochronic producen fuertes respuestas corticales en el cerebro. Muchas personas que no responden bien a los binaural beats menudo responden muy bien a los tonos isochronic. Tonos isochronic son más eficaces con los auriculares.

Música de modulación y filtrado de audio

Sonido de modulación es una manera de producir sincronización de onda cerebral usando algo tan complejo como una pista musical. En efecto, esto es "encajando" sincronización de onda cerebral en el audio. Cualquier sonido puede ser utilizado, a partir de sonidos de la naturaleza de ruido blanco a una sinfonía clásica completo.
Modulación trabaja rítmicamente por el ajuste de un componente en el sonido. Por ejemplo, la modulación de volumen se utiliza para aumentar y disminuye el volumen para crear el estímulo rítmico necesario para que se produzca arrastre.
El problema con la modulación es que a menudo puede distorsionar el audio, especialmente cuando se utiliza con la música o ciertos sonidos de la naturaleza como la lluvia. Selección de la banda resuelve este problema mediante la modulación selectiva ciertas partes de un archivo de audio, en lugar de la totalidad de ella.
La sincronización de onda cerebral se incrusta en sólo un rango de baja frecuencia - que afecta a las partes del bajo, pero dejando la mitad y agudos solos. Selección de la banda puede ser utilizado para afectar sólo a una parte de un archivo de sonido. Bandas de frecuencia múltiples también se pueden seleccionar.
Selección de la banda es un avance importante, lo que permite el arrastre para ser embebido en cualquier archivo de sonido con prácticamente ningún efecto negativo en el audio existente. Debido a que permite niveles de intensidad mucho mayores, la eficacia de la sesión se aumenta realmente.

Arrastre audiovisual

Arrastre audiovisual, un subconjunto de sincronización de onda cerebral, utiliza destellos de luces y legumbres de tonos para guiar el cerebro en varios estados de la actividad cerebral. Dispositivos AVE a menudo se llaman las máquinas de luz y sonido o máquinas de la mente. La alteración de la actividad cerebral puede ayudar en el tratamiento de trastornos psicológicos y fisiológicos.

redes neuronales

La Neurona
A finales del siglo 19 se logró una mayor claridad sobre el trabajo del cerebro debido a los trabajos de Ramón y Cajal en España y Sherrington en Inglaterra. El primero trabajó en la anatomía de las neuronas y el segundo en los puntos de conexión de las mismas o sinápsis.
El tejido nervioso es el más diferenciado del organismo y está constituido por células nerviosas, fibras nerviosas y la neuroglia, que está formada por varias clases de células. La célula nerviosa se denomina neurona, que es la unidad funcional del sistema nervioso. Hay neuronas bipolares, con dos prolongaciones de fibras y multipolares, con numerosas prolongaciones. Pueden ser neuronas sensoriales, motoras y de asociación.
Se estima que en cada milímetro del cerebro hay cerca de 50.000 neuronas. La estructura de una neurona se muestra en la figura 1.
El tamaño y la forma de las neuronas es variable, pero con las mismas subdivisiones que muestra la figura. El cuerpo de la neurona o Soma contiene el núcleo. Se encarga de todas las actividades metabólicas de la neurona y recibe la información de otras neuronas vecinas a través de las conexiones sinápticas.
Las dendritas son las conexiones de  de la neurona. Por su parte el axón es la "salida" de la neurona y se utiliza para enviar impulsos o señales a otras células nerviosas. Cuando el axón esta cerca de sus células  se divide en muchas ramificaciones que forman sinápsis con el soma o axones de otras células. Esta unión puede ser "inhibidora" o "excitadora" según el transmisor que las libere. Cada neurona recibe de 10.000 a 100.000 sinápsis y el axón realiza una cantidad de conexiones similar.
La transmisión de una señal de una célula a otra por medio de la sinápsis es un proceso químico. En él se liberan substancias transmisoras en el lado del emisor de la unión. El efecto es elevar o disminuir el potencial eléctrico dentro del cuerpo de la célula receptora. Si su potencial alcanza el umbral se envía un pulso o potencial de acción por el axón. Se dice, entonces, que la célula se disparó. Este pulso alcanza otras neuronas a través de la distribuciones de los axones.
La Red Neuronal
El sistema de neuronas biológico esta compuesto por neuronas de entrada (censores) conectados a una compleja red de neuronas "calculadoras" (neuronas ocultas), las cuales, a su vez, están conectadas a las neuronas de  que controlan, por ejemplo, los músculos. La figura 6 muestra un esquema conceptual. Los censores pueden ser señales de los oídos, ojos, etc. las respuestas de las neuronas de salida activan los músculos correspondientes. En el cerebro hay una gigantesca red de neuronas "calculadoras" u ocultas que realizan la computación necesaria. De esta manera similar, una red neuronal artificial debe ser compuesta por censores del tipo mecánico o eléctrico.
Historia De Redes Neuronales Artificiales
Los intentos por imitar el funcionamiento del cerebro han seguido la evolución del estado de la tecnología. Por ejemplo, al finalizar el siglo 19 se le comparó con la operación de la bomba hidráulica; durante la década de 1920 a 1930 se intento utilizar la teoría de la conmutación telefónica como punto de partida de un sistema de conocimiento similar al del cerebro. Entre 1940 y 1950 los científicos comenzaron a pensar seriamente en las  neuronales utilizando como concepto la noción de que las neuronas del cerebro funcionan como interruptores digitales (on - off) de manera también similar al recién desarrollado computador digital. Así nace la idea de "revolución cibernética" que maneja la analogía entre el cerebro y el computador digital.
1943 Teoría de las Redes Neuronales Artificiales
Walter Pitts junto a Bertran Russell y Warren McCulloch intentaron explicar el funcionamiento del cerebro humano, por medio de una red de células conectadas entre sí, para experimentar ejecutando operaciones lógicas. Partiendo del menor suceso psíquico (estimado por ellos): el impulso todo/nada, generado por una célula nerviosa.
El bucle "sentidos - cerebro - músculos", mediante la retroalimentación producirían una reacción positiva si los músculos reducen la diferencia entre una condición percibida por los sentidos y un estado físico impuesto por el cerebro.
También definieron la memoria como un conjunto de ondas que reverberan en un circuito cerrado de neuronas.
Seis años después de que McCulloch y Pitts mostraran sus Redes Neuronales, el fisiólogo Donald O. Hebb (de la McGill University) expuso que estas (las redes neuronales) podían aprender. Su propuesta tenia que ver con la conductividad de la sinápsis, es decir, con las conexiones entre neuronas. Hebb expuso que la repetida activación de una neurona por otra a través de una sinápsis determinada, aumenta su conductividad, y la hacia más propensa a ser activada sucesivamente, induciendo a la formación de un circuito de neuronas estrechamente conectadas entre sí.
El extraordinario estudiante de Harvard, Marvin Minsky conoció al científico Burrhus Frederic Skinner, con el que trabajó algún tiempo ayudándole en el diseño y creación de máquinas para sus experimentos. Minsky se inspiró en Skinner para gestar su primera idea "oficial" sobre inteligencia artificial, su Red Neuronal. Por aquel entonces entabló amistad con otro brillante estudiante, Dean Edmonds, el cual estaba interesado en el estudio de una nueva ciencia llamada Electrónica.
Durante el verano de 1951, Minsky y Edmonds montaron la primera máquina de redes neuronales, compuesta básicamente de 300 tubos de vacío y un piloto automático de un bombardero B-24. Llamaron a su creación "Sharc", se trataba nada menos que de una red de 40 neuronas artificiales que imitaban el cerebro de una rata. Cada neurona hacia el papel de una posición del laberinto y cuando se activaba daba a entender que la "rata" sabia en que punto del laberinto estaba. Las neuronas que estaban conectadas alrededor de la activada, hacían la función de alternativas que seguir por el cerebro, la activación de la siguiente neurona, es decir, la elección entre "derecha" o "izquierda" en este caso estaría dada por la fuerza de sus conexiones con la neurona activada. Por ejemplo, la "rata" completaba bien el recorrido eligiendo a  de la quinta neurona la opción "izquierda" (que correspondería a la sexta), es entonces cuando las conexiones entre la quinta y sexta se hacen más fuertes (dicha conexión era realizada por el piloto automático), haciendo desde este momento más propensa esta decisión en un futuro. Pero las técnicas Skinnerianas (que eran las que se habían puesto en funcionamiento en esta red neuronal) no podrían llevar muy lejos a este nuevo engendro, la razón pasa porque esto, en sí, no es inteligencia, pues la red neuronal nunca llegaría a trazar un plan.
Después de su Red Neuronal, Minsky escribió su tesis doctoral acerca de esta, en ella describía "cerebros mucho mayores", exponiendo que si se realizaba este proyecto a gran escala, con miles o millones de neuronas más y con diferentes censores y tipos de retroalimentación… la máquina podría ser capaz de razonar, mas el sabia que la realización de esta Red Neuronal era imposible y decidió buscar otra forma de crear inteligencia…
Las Redes Neuronales Artificiales
Un método más avanzado para representar el conocimiento, es el sistema experto. Típicamente está compuesto por varias clases de información almacenada: Las reglas If - Then le dicen al sistema como se debe reaccionar ante los estados del "mundo". Una regla del sistema experto puede ser if Y es un hombreThen Y es mortal. Los hechos describen el estado del "mundo". Por ejemplo: Juan es mortal. Por último, una máquina de inferencia relaciona los hechos conocidos con las reglas If - Then y genera una conclusión. En el ejemplo: Juan es mortal. Esta nueva conclusión se añade a la colección de hechos que se almacena en los medios ópticos o magnéticos del computador digital. De esta forma, un sistema experto sintetiza nuevo conocimiento a partir de su "entendimiento" del mundo que le rodea. De esta forma, un sistema experto es un método de representación y procesamiento del conocimiento, mucho más rico y poderoso que un simple programa de computador. Sin embargo, con respecto a la manera en que opera el cerebro humano, las limitaciones son múltiples. Los problemas planteados en términos difusos o ambiguos , por ejemplo, son muy complejos de analizar o "conocer" con sistemas de procesamiento simbólico, como los sistemas expertos o programas de computador.
Interpretación De La Neurona Por Computadora
Una neurona se puede comparar con una caja negra compuesta por varias entradas y una salida. La relación de activación entre la salida y la entrada, o en términos circuitales o de teoría de control, la función de transferencia se encuentra en la ..figura 2.
La variable f es la frecuencia de activación o emisión de potenciales y u es la intensidad del estímulo del soma.
Un circuito eléctrico que realice la sume ponderada de las diferentes señales que recibe de otras unidades iguales y produzca en la salida un uno o un cero según el resultado de la suma con relación al umbral o nivel de disparo, conforma una buena representación de lo que es una neurona artificial. La función de transferencia para la activación o disparo de la neurona puede ser de umbral lógico (fig. 4ª) o de limitación dura (fig. 4b) o de función tipo s (fig. 4c). W representa el peso o ponderación de la conexión a través de una entrada.
La neurona artificial es un dispositivo eléctrico que responde a señales eléctricas. La respuesta la produce el circuito activo o función de transferencia que forma parte del cuerpo de la neurona. Las "dendritas" llevan las señales eléctricas al cuerpo de la misma. Estas señales provienen de censores o son salidas de neuronas vecinas. Las señales por las dendritas pueden ser voltajes positivos o negativos; los voltajes positivos contribuyen a la excitación del cuerpo y los voltajes negativos contribuyen a inhibir la respuesta de la neurona. (fig. 5).
Cuando el sistema humano de neuronas, los ojos captan un objeto A (figura 7), por ejemplo, algunos de los censores de la visión se activan y envían señales a las neuronas ocultas. Las neuronas que se disparan con la señal de entrada aumentan el grado de conexión de ellas. Si el mismo objeto A se presenta una y otra vez, la interconexión de neuronas se refuerza y, por lo tanto, el conocimiento del objeto.
Si se le presenta a la red anterior el objeto A modificado (Figura 8) la unión de las neuronas para el conocimiento de tal objeto, es débil. Las neuronas deben entrenarse para reconocer el objeto A en esta nueva presentación. Luego de algunas sesiones de entrenamiento, el sistema neuronal es capaz de reconocer el objeto A en todas sus formas. Si el objeto cambia nuevamente la red de neuronas y el conocimiento se actualizan.
Este entrenamiento, repetido para todos los valores de entrada y salida que se quiera, origina una representación interna del objeto en la red, que considera todas las irregularidades y generalidades del mismo.
En la figura 9 se presenta el esquema de una neurona artificial durante la etapa de aprendizaje. Una vez establecidos los pesos definitivos de interconexión, la neurona adquiere su forma tradicional.
En la figura 10ª se presenta una red neuronal artificial con dos entradas, tres neuronas ocultas y dos salidas. El estado de no entrenamiento se representa por las resistencias variables que indican los pesos de las conexiones. Después de aplicar un algoritmo de entrenamiento y de aplicar repetidamente todas las parejas de entrada y salida necesarias, la red queda entrenada y con el peso de conexiones definido, fig. 10b.
Método de transmisión de la información en el cerebro
Antes conviene saber que en los primeros tiempos de la informatica a los ordenadores se los llamaba calculadoras de cifras electronicas o simplemente calculadoras digitales. Los sistemas digitales trabajan con cifras en código binario que se transmiten en formas de impulsos (bits). Los sistemas analógicos procesan señales continuamente cambiantes, como música o palabra hablada.
Por suerte para nuestro propósito de imitar con un ordenador el cerebro este también codifica la información en impulsos digitales. En los humanos las sensaciones se generan digitalmente y se transmiten así a través del sistema nervioso. Con otras palabras cuando la luz se hace más intensa, el sonido mas alto o la presión mas fuerte, entonces no es que fluya mas corriente a través de los nervios, sino que la frecuencia de los impulsos digitales aumenta.
En principio los ordenadores trabajan de manera semejante. Así una sensación mas fuerte corresponde en un equipo informático a una cifra más alta (o en una palabra mas larga). Sin embargo en un ordenador los datos se transmiten siempre a un mismo ritmo; la frecuencia base es inalterable. Por eso las cifras mas altas tardan mas tiempo en ser transmitidas. Como por lo general el ordenador o trabajan en tiempo real, esto no tiene mayor importancia, pero cuando se trata de un procesador en tiempo real, como son los empleados en proceso industrial, hace falta de ampliar él numero de canales de transmisión para que en el mismo espacio de tiempo pueda fluir mayor cantidad de datos.
Compuertas lógicas
Sabemos que los elementos básicos de un ordenador son las compuertas lógicas, en el cerebro también existen aunque no son idénticas a las de un ordenador
En un ordenador las compuertas And, Or etc. tiene una función perfectamente determinada e inalterable. En el cerebro también hay elementos de conexión parecidos, las llamadas sinapsis, donde confluyen en gran numero las fibras nerviosas.
Funcionamiento de las sinapsis
Cientos de datos fluyen por los nervios hasta cada sinapsis, donde son procesados. Una vez analizada y tratada la información esta sale ya transformada por los canales nerviosos.
En los seres vivos no pueden permitirse el lujo de la especialización ya que si algo se rompe otro elemento debe hacerse cargo de la función. Por eso cada sinapsis es simultáneamente una compuerta Ad, Or, Not etc.
Una sinapsis suma las tensiones de los impulsos entrantes. Cuando se sobrepasa un determinado nivel de tensión; el llamado umbral de indicación; esta se enciende, esto es deja libre el camino para que pasen los impulsos. Si el umbral de indicación de tensión es demasiado bajo, la sinapsis actúa como una  lógica del tipo Or, pues en tal caso pocos impulsos bastan para que tenga lugar la conexión. En cambio cuando el umbral de indicación es alto, la sinapsis actúa como una puerta And, ya que en ese caso hace falta que lleguen la totalidad de los impulsos para que el camino quede libre. También existen conducciones nerviosas que tienen la particularidad de bloquear el paso apenas llegan los impulsos. Entonces la sinapsis hace la función de una compuerta inversora. Esto demuestra la flexible del sistema nervioso.
Diferencias entre el cerebro y un ordenador
La diferencia más importante y decisiva el cómo se produce el almacenamiento de información en el cerebro y en el ordenador.
Ordenador: Los datos se guardan en posiciones de memoria que son seldillas aisladas entre sí. Así cuando se quiere acceder a una posición de memoria se obtiene el dato de esta celdilla. Sin que las posiciones de memoria aldeanas sé de por aludidas.
Cerebro: La gestión es totalmente diferente. Cuando buscamos una información no hace falta que sepamos donde se encuentra almacenada y en realidad no lo podemos saber ya que nadie sabe donde guarda hasta hoy en ida el cerebro los datos.
Pero tampoco es necesario ya que basta con que pensemos en el contenido o significado de la información para que un mecanismo, cuyo funcionamiento nadie conoce, nos proporcione automáticamente no solo la información deseada sino que también las informaciones vecinas, es decir, datos que de una u otra manera hacen referencia a lo buscado.
Los expertos han concebido una serie de tecnicismos para que lo incomprensible resulte algo más comprensible. Así a nuestro sistema para almacenar información se lo llama memoria asociativa. Esta expresión quiere dar a entender que los humanos no memorizan los datos direccionandolos en celdillas, sino por asociación de ideas; esto es, interrelacionando contenidos, significados, modelos.
En todo el mundo pero sobre todo en Estados Unidos y Japón, científicos expertos tratan de dar con la clave de la memoria asociativa. Si se consiguiera construir un chip de memoria según el modelo humano, la ciencia daría un paso gigante en la fascinante carrera hacia la inteligencia artificial. Y además el bagaje del saber humano quedaría automáticamente enriquecido.
Un superordenador llamado cerebro
El hombre necesita un sistema de proceso de datos de multiple propocito capaz de taratar gran cantidad de informacion muy distinta y en muy poco tiempo y con el mayor sentido practico(pero no necesariamente con exactitud), para inmediatamente poder actuar en concecuencia. Los ordenadores, en cambio, son altamente especializados con capacidad para procesar con exactitud informacion muy concreta(en principio solo numeros) siguiendo unas instrucciones dadas.
El cerebro humano posee mas de diez millones de neuronas las cuales ya están presentes en el momento del nacimiento conforme pasa el tiempo se vuelven inactivas, aunque pueden morir masivamente.
Nuestro órgano de pensamiento consume 20 Patios/hora de energía bioquímica, lo que corresponde a una cucharada de azúcar por hora. Los ordenadores domésticos consumen una cantidad semejante. Las necesidades de oxigeno y alimento es enorme en comparación con el resto del cuerpo humano: casi una quinta parte de toda la sangre fluye por el cerebro para aprovisionar de oxigeno y nutrieres. La capacidad total de memoria es dificil de cuantificar, pero se calcula que ronda entre 10ª12 y 10ª14 bits.
La densidad de información de datos de un cerebro todavía no se ha podido superar artificialmente y en lo que se refiere a velocidad de transmisión de datos, a pesar de la lentitud con que transmite cada impulso aislado, tampoco esta en desventaja, gracias a su sistema de proceso en paralelo: la información recogida por un ojo representa 10ª6 bits por segundo.
Según todos los indicios el cerebro dispone de dos mecanismos de almacenamiento de datos: la memoria intermedia acepta de cinco a diez unidades de información, aunque solo las mantiene durante agudos minutos. La memoria definitiva guarda las informaciones para toda la vida, lo que no significa que nos podamos acordar siempre de todo. La memoria inmediata trabaja como una espacie de cinta continua: la información circula rotativamente en forma de impulsos eléctricos por los registros. El sistema es comparable a la memoria dinámica de un ordenador, en la que la información tiene que ser refrescada continuamente para que no se pierda. En cambio, la memoria definitiva parece asemejare mas bien a las conocidas memorias de celdillas de los ordenadores. Se cree que esta memoria funciona gracias a formaciones químicas de las proteínas presentes en el cerebro humano.
Diferencias entre el cerebro y una computadora
Cerebro
Computadora
  • Sistema de datos de múltiple propósito capaz de tratar gran cantidad de información en poco tiempo pero no nesesariamente con exactitud.
  • Sistemas altamente especializados con capacidad para procesar información muy concreta, siguiendo unas instrucciones dadas.
  • La frecuencia de los impulsos nerviosos puede variar.
  • La frecuencia de transmisión es inalterable y esta dada por el reloj interno de la .
  • Las llamadas sinapsis cumple en el cerebro la función simultánea de varias compuertas (and, or, not etc.)
  • Las compuertas lógicas tienen una función perfectamente determinada e inalterable.
  • La memoria es del tipo asociativo y no se sabe dónde quedara almacenada.
  • La información se guarda en posiciones de memoria de acceso directo por su dirección.
  • Los impulsos fluyen a 30 metros por segundo.
  • En el interior de una computadora los impulsos fluyen a la velocidad de la luz.
Similitudes entre el cerebro y una computadora
  • Ambos codifican la información en impulsos digitales.
  • Tanto el cerebro como la computadora tienen compuertas lógicas.
  • Existen distintos tipos de memoria.
  • Los dos tienen aproximadamente el mismo consumo de energía.
Control de Ordenadores por Señales Neurales
La búsqueda de controlar el ordenador mediante impulsos bio-eléctricos, es una idea que ha dejado de ser parte de las novelas de ciencia-ficción, para integrarse a las filas de temas de estudio e investigación serios.
Hoy en día, estamos un paso más cerca de lograr tales sueños, puesto que la tecnología y la teoría científica, al respecto, son cada vez más cercanos.
En 1849, Emil Heinrich Du Bois-Reymond, se basaba en la teoría de que el sistema nervioso poseía una naturaleza eléctrica. Detectaba las imperceptibles descargas eléctricas provocadas al contraer los músculos del brazo. Utilizó un galvanómetro, un primitivo medidor de tensiones, y cuyo electrodo, constituía de los hilos del aparato con trozos de papel secante impregnado de solución salina.
Se dio cuenta de que la piel actuaba como un aislante de las señales eléctricas, entonces, no vaciló en abrirse una herida y logró captar señales eléctricas unas treinta veces más intensas.
En los 70’, comenzó una carrera hacia el diseño de prótesis mecanizadas capaces de
obedecer a contracciones musculares, y que aun no ha terminado.
Con electrodos de cloruro de plata y amplificadores electrónicos muy sensibles, pueden registrarse los débiles impulsos musculares.
Las señales que se captan se denominan "señales electromiográficas o EMG".
Otro sistema deriva de otro fenómeno bio-eléctrico, la diferencia de potencial entre la retina y la córnea. La retina posee la máxima
actividad metabólica del ojo, presentando, así, una tensión (eléctrica) ligeramente negativa con respecto a la córnea. Mediante circuitos electrónicos, puede detectarse las minúsculas variaciones de tensión de esta débil batería eléctrica, cuando la persona cambia la orientación de sus ojos. Tales impulsos fueron llamados "señales electrooculográficas o EOG.
En otras técnicas de medición ocular se utilizan, rayos infrarrojos o cámaras de video, pero son sistemas más costosos que el de electrodos.
Por último la utilización de técnicas por electroencefalograma o EEG, los electrodos se colocan en el cuero cabelludo, captándose las débiles señales de los potenciales eléctricos que emite el cerebro.
Hemos visto que hasta ahora, se utiliza, principalmente como sensor para captar las señales, al electrodo, que en todos los casos capta diferencias de potencial.
Para que esta información recibida tenga algún sentido, debemos tener además un sistema que amplifique esta señal recibida, y así poder estudiarla.
El paso siguiente es un sistema que analice y traduzca dichos datos en una información útil. De ello se encarga el hardware y software creado específicamente para tal fin.
Por último un sistema efector, es decir un sistema que realice una acción a partir de la interpretación de los datos obtenidos.
El caso EMG (electromiográfico): se ha diseñado un equipo que sirve de interfaz entre el ordenador y las señales eléctricas del cuerpo.
Comienza con la amplificación de las señales EMG, en un factor de 10.000. Otros circuitos lo convierten en un formato digital. Luego de un extenso procesamiento de dichas señales digitalizadas, el ordenador puede determinar cuando y en que medida se contraen las fibras musculares próximas a los electrodos, de esta manera, la actividad muscular puede dirigir la operación de un ordenador personal.
Lógica difusa o Lógica fuzzy, en informática, forma de lógica utilizada en algunos sistemas expertos y en otras aplicaciones de inteligencia artificial, en la que las variables pueden tener varios niveles de verdad o falsedad representados por rangos de valores entre el 1 (verdadero) y el 0 (falso). Con la lógica fuzzy, el resultado de una operación se puede expresar como una probabilidad y no necesariamente como una certeza. Por ejemplo, además de los valores verdadero o falso, un resultado puede adoptar valores tales como probablemente verdadero, posiblemente verdadero, posiblemente falso y probablemente falso.
El caso EOG (electrooculográficas): es similar al anterior, comienza por amplificar y digitalizar las tensiones recogidas por 4 electrodos, 2 para movimientos verticales y 2 para las horizontales. Seguidamente, el sistema aplica lógica borrosa para discriminar entre el movimiento real del ojo y la deriva del electrodo.
El caso EEG (electroencefalográfico): los neurólogos creen que el origen de las tensiones EEG está en las células piramidales de la corteza cerebral. Cada célula constituye un diminuto dipolo eléctrico, cuya polaridad depende de que la entrada de la red a la célula sea una inhibición o excitación. Los electrodos son altamente sensibles, de modo que, puede colocarse los electrodos sobre la piel y por encima del área que se desea estudiar.
Se ha intentado aislar ciertas señales que el sujeto pueda controlar a su voluntad. Por desgracia, las señales captadas se resisten al control. Lo que se hace, es medir continuamente una diversidad de señales EEG y eliminar por filtrado las partes indeseadas. Las diferentes ondas, se caracterizan por la frecuencia de sus emisiones, hay cinco tipos: ALFA, se crean por acciones sencillas; BETA, se las asocia a un estado de alerta; TETHA, se originan por tensión emocional, como la frustración; MU, al parecer asociadas con la corteza motora (disminuyen con el movimiento o la intención de moverse).
Casi todas las tentativas de controlar un ordenador por mediciones continuas de EEG se basan en la obtención de ondas ALFA o MU, ya que es posible aprender a cambiar la amplitud de estos dos ritmos mediante un esfuerzo mental apropiado por ejem. un recuerdo.
Las ondas MU pueden controlarse su amplitud mediante representaciones de la sonrisa, la masticación, la deglución y otras actividades motoras.
El equipo investigador ha preparado un sistema para la detección ráfagas de actividad en ondas ALFA, que pueden provocarse deliberadamente distrayendo la atención.
Un segundo tipo de aparato medidor de ondas cerebrales, por medio de un sistema llamado
de potencial evocado o EP. La señal EP se produce en respuesta a ciertos estímulos,
- tales como un fuerte ruido o un destello de luz -.
Como con toda investigación científica, posee en primer lugar dos orientaciones, la militar y la médica.
En medicina los primeros en beneficiarse son los minusválidos con deficiencias o carencias motrices, quienes además aportan al desarrollo de estas tecnologías, por ser sujetos de prueba. Tanto las tecnologías que usan EMG, como EOG han logrado ampliar las expectativas de estos pacientes, por ej. Con EMG se observó que los impulsos eléctricos procedentes de fibras musculares activas, pueden manejar equipos electrónicos, con las señales generadas por los músculos. Con EOG una niña con una grave lesión espinal probó que podía mover el cursor de la pantalla de computadora a partir de impulsos generados por sus ojos.
En otro sentido con el EOG permite que un cirujano cambie, moviendo los ojos, el campo visual de una cámara de fibra óptica, y así poder tener las manos ocupadas con instrumentos quirúrgicos.
En el campo de las ondas cerebrales han experimentado con esta tecnología conectándola con un sintetizador musical.
Erich E. Sutter desarrolló un sistema que permite a los discapacitados seleccionar palabras o frases de un menú formado por cuadros que destellan en la pantalla de un ordenador. Sosteniendo durante uno o dos segundos la mirada fija en el cuadro apropiado, una persona conectada por electrodos craneales puede transmitir su elección por ordenador, constituyendo un
claro ej.del potencial evocado del cerebro (EP).
En el área militar están experimentando en pilotos de avión con señales EP, siendo una herramienta útil en el momento de tener manos y pies ocupados.
El Futuro.
Hasta ahora el control de un entorno electrónico o incluso uno electromecánico, (ej. Manejar una silla de ruedas), ha sido utilizando un solo tipo de señal, sea que provenga de un músculo, del ojo o de ondas cerebrales.
También somos nosotros quienes debemos entrenarnos para controlar nuestros impulsos y luego poder mover o ejecutar la acción deseada
Quizá el futuro se encuentre en sistemas que sean capaces de traducir muchos y diferentes tipos de señales, y así poder "leer" lo que nosotros deseamos hacer, dejando al sistema y no a nosotros, el trabajo de entrenarse.
En cuanto a las aplicaciones quizá se logren versiones comerciales para manejar entornos informáticos, y así a través de los ordenadores controlar, medios de transporte, electrodomésticos, equipos médicos y militares, el campo de aplicación es enorme...
LOS IMPLANTES QUE SALVAN VIDAS
Los futurórologos norteamericanos dicen que dentro de un siglo la medicina será capaz no sólo de reemplazar cualquier parte dañada del cuerpo, sino que podrá sustituir, por medio de un chip implantado en el cerebro ciertos déficit de la inteligencia para que todos los individuos estén a la altura del progreso técnico y científico del conjunto.
La electrónica ayuda a la medicina, se ha aliado con ella y ha inventado implantes que podrán parar el mal de Parkinson o la epilepsia, así como órganos artificiales que mejoran el modo de vida. También permitirá una administración precisa de los medicamentos, colocando minibombas en alguna parte del cuerpo que proporcionarán las dosis adecuadas para cada paciente, evitando los efectos secundarios.
El desarrollo de nuevos materiales permitirá la aparición de nuevos órganos artificiales, como por ejemplo falsos músculos realizados con materiales retráctiles u órganos híbridos compuestos, a la vez, por células vivas y chips electrónicos.
El ojo es una especie de burbuja vacía cuya pared interna, la retina, está dotada de fotorreceptores que captan las imágenes y las transforman en señales eléctricas en dirección al nervio óptico. Si los oftalmólogos perciben, mediante test, algunas respuestas eléctricas, esto significa que el sistema ocular funciona a pesar de las dificultades de visión de los pacientes. La finalidad es captar los objetos exteriores con ayuda de una minicámara con control de imagen y, después, transplantar esta imagen eléctrica sobre el fondo de la retina. El chip electrónico que captaría toda esa información sería implantado en el interior del ojo y conectado con la retina con la ayuda de mil electrodos. Los problemas de miniaturización pueden solventarse, pero los más complicados son los relacionados con la fragilidad de la retina. Los intentos realizados en este sentido son los menos avanzados.
Los córtex, situados en la parte posterior de cada hemisferio cerebral, son los responsables de eleborar la información que le proporciona el nervio óptico..
El Instituto de Organos Artificiales de Long Island, junto con la Universidad de Estern de Canadá han logrado implantar en el córtex de algunos pacientes una diminuta reja de teflón provista de sesenta y cuatro electrodos de platino conectados a una cámara de video y a un microordenador, que transforma en señales numéricas los impulsos analógicos de la cámara. Así, lo que informa la cámara se traduce en impulsos eléctricos que son directamente transmitidos al cerebro del paciente ciego.
Cada sonido es una vibración mecánica que pasa por el tímpano, y en el oído interno se convierte en señales eléctricas que son enviadas al nervio auditivo. Esta transformación eléctrica es crucial, ya que el 93 porciento de las sorderas están ligadas a la destrucción del órgano de Corti, que es justamente el transformador de nuestro oído.
Desde los años cincuenta se sabe que un electrodo implantado en el oído permite a la persona entender los sonidos, pero la gran dificultad estribaba en transcribir con precisión todos los sonidos del mundo exterior. Según la zona estimulada, el nervio auditivo entiende un sonido agudo, grave o medio. La solución se dio con un dispositivo miniaturizado que convierte los sonidos captados por un micrófono en impulsos eléctricos, los cuales son enviados por cables subcutáneos a una antena adosada a la piel, cerca de la oreja. Otra antena casi microscópica, disimulada en la piel del paciente, actúa como receptor de señales. La última fase del proceso se completa al activarse un manojo de electrodos ( de 4 a 16 ) fijados previamente a la cóclea, haciendo una especie de puente sobre la vía sensorial dañada.
La técnica, que es muy segura, tiene sus limitaciones, ya que los impulsos eléctricos sólo pueden ser entendidos y decodificados por una persona que alguna vez haya oído. Un sordo total de nacimiento sería incapaz de "organizar" y entender lo que escucha.
El implante coclear es una microcomputadora que, situada en la parte más profunda del oído, reemplaza parcialmente al órgano.
  • El profesor israelí Gideon Inbar, decano de la Facultad de Ingeniería Eléctrica, está investigando con éxito la inteligencia artificial de la locomoción. Consiguió, fijando sensores en la pierna de una voluntaria, fabricar señales nerviosas que pueden ser vueltas a emitir por una computadora activando los músculos atrofiados.
  • La "computadora médica para caminar" de Inbar podría monitorear la pierna constantemente y en consecuencia proporcionar una información ininterrumpida al músculo por medio de miles de señales eléctricas estimulantes. De esta manera , ciertos pacientes inmovilizados podrían movilizarse.
  • Los enfermos parapléjicos y tetrapléjicos podrían beneficiarse con las investigaciones que se están realizando para que, ayudados por bastones, vuelvan a caminar. Los que padecen esta enfermedad están afectados por una lesión en la médula espinal.
  • Una de las soluciones, la más prometedora, es reactivar los músculos situados cerca de la lesión con una corriente eléctrica. El problema es que este método requiere poner los electrodos en cada utilización. La respuesta es implantar, en el interior del cuerpo, una cajita electrónica capaz de enviar a los músculos la corriente de estimulación, ya sea por electrodos situados alrededor de los nervios o de los fascículos (haz de nervios que tienen el mismo origen y destino) representantes de una parte del tronco, o mediante electrodos situados en los músculos. Todavía llevarían bastones para mantener el equilibrio, donde se situarían unos botones que accionarían el dispositivo.
  • Los brazos biónicos ya son una realidad, así también como lo son los huesos y las articulaciones artificiales. En los Estados Unidos ya hay 65.000 rodillas mecánicas, 110.000 caderas y 50.000 hombros. Una cadera artificial dura diez años y una rodilla algo menos por su gran desgaste, pero estas prótesis ya cuentan con sistemas robóticos para su implantación. En Israel están perfeccionando un sistema de retroalimentación continuo, proveniente de los sensores implantados en los nervios del hombro del miembro amputado, que produce una respuesta inmediata a la comunicación eléctrica de un nervio, en la misma forma en que se comporta el sistema nervioso. Eso permite que el brazo biónico (que encierra una minicomputadora) funcione suavemente, casi como uno normal.
La diabetes consiste en la imposibilidad del páncreas de producir insulina, hormona que permite al organismo utilizar su carburante : la glucosa que circula por el cuerpo. Si no la fabrica, la taza de azúcar en sangre se eleva y puede provocar un coma mortal. La solución es inyectarse insulina cada cierto tiempo. Pero las inyecciones de insulina reproducen imperfectamente la actividad del páncreas. En los años ochenta se creó la bomba externa, un aparato programable que se une al cuerpo por una aguja implantada en la piel y permite difundir constantemente un caudal reducido de insulina.
Aunque el sistema parecía estar en su apogeo, dos investigadores estadounidenses afinaron el aparato y crearon en 1989 la bomba implantable. Consiste en un catéter que, instalado en la cavidad peritoneal, cerca del páncreas, difunde la insulina para que se absorba al instante y emita sus dosis de forma muy precisa.
Entre los ataques al corazón, el más peligroso es la fibrilación ventricular. El órgano, por efecto de una caótica actividad, es incapaz de bombear sangre. Sólo hay un modo de parar la crisis : sometiendo al corazón a una descarga eléctrica que consigue que su actividad reemprenda su curso natural, con un ritmo regular. Desde los años cincuenta, los servicios de reanimación disponen de desfibriladores que permiten enviar el shock que salva la vida. Pero el problema reside en llegar al hospital a tiempo. Un cardiólogo polaco ha ideado un producto revolucionario : un desfibrilador implantable capaz de vigilar permanentemente el ritmo cardíaco y de enviar, a los primeros síntomas de fibrilación, una descarga de 700 u 800 voltios a través del corazón.
Las virtudes del corazón artificial son conocidas por casi todo el mundo, ya se ha oído hablar de la bomba de resina implantada y portátil, capaz de ayudar a un órgano deficiente. Varias personas se han beneficiado con este sistema, el Novacor, que por el momento es la solución para los pacientes que esperan un transplante.
Hasta ahora quienes llevaban un corazón artificial tenían enganchado a la cintura un aparato que pesaba cinco kilos. El Novacor, en cambio, es un diminuto controlador que se sitúa en el abdomen, cerca de la bomba, y la energía es dispensada, no por un cable, sino directamente a través de la piel. Se basa en dos cinturones, uno exterior, dotado de batería, y otro interior, cargado por el primero.
Este corazón ofrece la ventaja de que no es rechazado y de que se puede implantar a cualquier edad.
Hasta el momento, los medicamentos y la cirugía eran las únicas vías para paliar la crisis epilépticas, pero algunos enfermos no responden a ninguno de estos tratamientos.
Ahora ha aparecido un nuevo método : la estimulación eléctrica del nervio vago, que va desde el cerebro hasta el abdomen.
En 1938 dos profesores estadounidenses demostraron que los impulsos eléctricos influían en la actividad cerebral. Muchos equipos investigadores se dieron cuenta de que la electricidad podía apaciguar las crisis epilépticas. Dos de ellos fundaron Cyberonics, una sociedad que fabrica simuladores eléctricos implantables.
Se trata de un generador que va situado en la clavícula y está unido a un electrodo que los cirujanos fijan en el nervio vago.
La idea de utilizar la estimulación eléctrica para atenuar el dolor viene de la antigüedad.
En 1972, el profesor Lazorthes, del hospital CHU, de Toulouse, implantó generadores eléctricos provistos de un electrodo en el espacio epidural. Había nacido la electroestimulación. La sensación dolorosa es el resultado de la excitación de ciertas fibras nerviosas muy finas. La estimulación eléctrica trata de restablecer el equilibrio tocando otras fibras que tienen un efecto inhibidor sobre las primeras. Este implante surte efecto en pacientes con problemas discales y en los casos de dolores ligados a miembros fantasmas, es decir, en aquellas personas que dicen sentir dolor a pesar de que se les ha amputado un miembro.

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Powered by Blogger | Printable Coupons