25 de julio de 2013

VIRUS PANDORA


Sólo el 7 por ciento de los genes de los virus coinciden con los de las bases de datos existentes, un hallazgo que confirma que la diversidad viral es todavía en gran parte inexplorada

El organismo se llamó inicialmente NLF, por "nueva forma de vida". Jean-Michel Claverie y Chantal Abergel, los biólogos evolutivos en la Universidad de Aix-Marsella, en Francia, la encontraron en una muestra de agua recogida en las costas de Chile, donde parecía estar infectando y matando a las amebas. Bajo un microscopio, que apareció como un punto oscuro grande, aproximadamente del tamaño de una célula bacteriana pequeña.



El virus Pandora es capaz de infectar microorganismos como las amebas y es tan grande como algunas bacterias.
Imagen tomada por: Chantal Abergel/Jean-Michel Claverie

Más tarde, después de que los investigadores descubrieron un organismo similar en un estanque en Australia, se dieron cuenta de que ambos son los virus - el más grande encontrado. Cada uno es de alrededor de 1 micrómetro de largo y 0,5 micrómetros de diámetro, y sus respectivos genomas alcanzan un máximo de 1,9 millones y 2,5 millones de bases - convirtiendole en el virus más grande del que se halla tenido noticia incluso más grande que algunas células eucariotas.

Pero estos virus, que se describe en la revista Science, son más que meros registros automáticos - que también apuntan a partes desconocidas del árbol de la vida. Sólo 7% de sus genes coinciden con los de las bases de datos existentes.

"¿Qué demonios está pasando con los otros genes", pregunta Claverie. "Esto abre una caja de Pandora. ¿Qué tipo de descubrimientos van a venir desde el estudio de los contenidos? "Los investigadores llaman a estos gigantes Pandoraviruses.

"Este es un descubrimiento importante que amplía considerablemente la complejidad de los virus gigantes y confirma que la diversidad viral es todavía en gran parte inexplorada", dice Christelle Desnues, virólogo del Centro Nacional Francés para la Investigación Científica en Marsella, que no participó en el estudio .

Claverie y Abergel han ayudado a descubrir otros virus gigantes - incluyendo el primero, denominado Mimivirus, en 2003, y Megavirus chilensis, hasta ahora, el virus más grande conocido, en 2011. Pandoravirus salinus vino de la misma muestra de agua chilena M. chilensis. Claverie recogió el segundo Pandoravirus, P. dulcis, de un estanque cerca de Melbourne, donde asistía a una conferencia.

La presencia de los virus "en continentes separados ayudó a establecer que no eran artefactos de células conocidas. También sugiere que los Pandoraviruses están muy extendidas, dice Claverie.

De hecho, otros científicos los habían confundido con anterioridad para las bacterias o parásitos simbióticos. Rolf Michel, un parasitólogo del Instituto Central del Servicio Médico Bundeswehr en Koblenz, Alemania, encontró uno en 2008, en una ameba que vive en la lente de contacto de una mujer con queratitis. "La lectura de este impresionante artículo, me di cuenta de que tanto salinus P. y P. dulcis son casi idénticos a lo que describimos hace unos años", dice. "No teníamos idea de que los organismos gigantes podrían ser virus en absoluto!"

Los investigadores demostraron que Pandoraviruses carecen de muchas de las características de los organismos celulares, como las bacterias. No hacen sus propias proteínas, producen energía a través de ATP o se reproducen por división.

Ellos, sin embargo, contienen algunos de los principales genes que son comunes a los virus gigantes, y tienen un ciclo de vida viral. Bajo un microscopio electrónico, los investigadores vieron los virus que se pueden recoger por amebas anfitriones, el vaciado de sus proteínas y el ADN en las células huésped, comandando los núcleos de la célula huésped, la producción de cientos de nuevas partículas virales y, por último, la división de las células huésped abierto.

Los investigadores están tratando de determinar el origen de los virus 'mediante la caracterización de los genes desconocidos y las proteínas que codifican. Ellos han sospechado durante mucho tiempo que los virus gigantes evolucionaron a partir de las células, y si están en lo cierto, los antepasados ​​de Pandoraviruses deben haber sido muy diferente de la bacterias, arqueas y eucariotas que tenemos hoy. "Creemos que en algún momento, la dinastía de la Tierra era mucho más grande que los tres ámbitos", dice Abergel. Algunas células dieron lugar a la vida moderna, y otros sobrevivieron parasitando ellos y evolucionar en los virus.

Fuente:

Un pequeño grupo rechaza ampliación en carretera a Tepoztlán: Messeguer en MVS

Comentario Grisel CSD.
¿Un pequeño grupo? Entonces si es pequeño, ¿Por qué tienen que intimidar, agredir y hasta lesionar? Si es un grupo pequeño, continúen con "las obras". Se que no es así, se que en Tepoztlan, la gente si está viendo por sus intereses, en todos los aspectos. Es importante que se demuestre que no es verdad lo que ellos dicen.
Apoyo a Tepoztlan.
Cuentan con los permisos, pero son servidores públicos. Se "deben" manejar por las necesidades y requerimientos del "pueblo".
¿Cuando vamos a despertar? Ya no te dejes manipular.


El secretario de gobierno de Morelos asegura que los gobiernos federal y estatal cuentan con los permisos para la ampliación de 2 a 4 carriles en la autopista que va de Cuautla a "La Pera".
Fuente: http://www.youtube.com/user/aristeguinoticias?feature=watch

UNA HERRAMIENTA MÉDICA PROMISORIA


Una nueva investigación, en la que han participado científicos de la Universidad de Granada, ha descubierto unas pequeñísimas partículas de oro nanométricas con propiedades magnéticas que les convierten en candidatas ideales para el desarrollo de futuros agentes antitumorales en la lucha contra el cáncer.

Cuando el tamaño de las partículas de oro se reduce a escala nanométrica, sus propiedades físicas cambian drásticamente. Los científicos ya se han fijado en las características ópticas y magnéticas de estos elementos, pues pueden tener aplicaciones en medicina, por ejemplo, para obtener marcadores tumorales o para liberar medicamentos. 


Junto con sus colegas europeos de Zaragoza, Grenoble, y Granada, los científicos de la EMFL en Dresde descubrieron que el oro puede llegar a ser altamente magnético - cuando las partículas son lo suficientemente pequeñas y los reactivos adecuados están presentes.
Es por eso que los científicos del Helmholtz-Zentrum Dresden-Rossendorf cultivan el microorganismo Sulfolobus acidocaldarius y tratados sobre la proteína aislada previamente con, por ejemplo, una solución de oroLas partículas de oro depositados a sí mismos como grupos nano en la capa de sustrato de proteínas y exhiben propiedades magnéticas sorprendentes.

El nuevo trabajo, que se publica en la revista Physical Review Letters, ha conseguido desarrollar unas partículas de oro de 2,6 nanómetros que emiten una señal magnética 25 veces superior a la observada en experimentos anteriores. Para desarrollar estas potentes miniaturas, los científicos han empleado como soporte a Sulfolobus acidocaldarius, un microorganismo que habita ambientes extremos con altas temperaturas, entre 75 y 80 º C, y muy ácidos. El método se ha basado en dos fases: en una primera etapa, un catión de oro es captado por los átomos de azufre de la capa S de proteínas, en la membrana de la bacteria. Después, el catión de oro fijado se somete a una reducción y genera oro metálico que es depositado en los poros de la capa S. 

Los átomos de azufre, al coordinarse con los átomos de oro de la superficie de las nanopartículas, intercambian electrones con ellos, y generan una pequeña descomposición en el número de electrones localizados en los átomos de oro. Cada electrón es un pequeño imán cuántico y su descompensación resulta en la señal magnética potente observada por los científicos. Este descubrimiento supone un avance en búsqueda de aplicaciones de la nanotecnología en el campo de la medicina.

Fuente:
http://www.muyinteresante.es/innovacion/medicina/articulo/oro-magnetico-contra-los-tumores-291370867387

Para saber más visiten:
http://www.emfl.eu/single/newsartikel/sensational-proof-nano-gold-is-magnetic.html

EL APRENDIZAJE DE LENGUAJES ES DEPENDIENTE DE LA CONEXIÓN...


...Entre las dos mitades del cerebro:

La habilidad de aprender nuevas palabras se basa en una comunicación eficiente entre las zonas del cerebro que controlan el movimiento y la audición

No todas las personas tienen igual de desarrolladas estas conexiones, lo que explicaría las diferencias individuales a la hora de aprender una lengua
El lenguaje es una habilidad exclusivamente humana. El vocabulario medio de una persona consiste en unas treinta mil palabras, aunque existen diferencias individuales en la capacidad de aprender una nueva lengua. Hace tiempo que se cree que la adquisición del lenguaje depende de la integración entre la información motora y la representación auditiva de las palabras en el cerebro, pero los mecanismos neurales que se encuentran detrás del aprendizaje de nuevas palabras no estaban claros.

Ahora, un estudio realizado por investigadores del grupo de Cognición y Plasticidad Cerebral del Instituto de Investigación Biomédica de Bellvitge (IDIBELL) y la Universidad de Barcelona, con la colaboración de investigadores del King’s College de Londres, aporta información sobre las vías neurales implicadas en el aprendizaje de palabras entre los humanos. La clave se encuentra en el fascículo arqueado, un haz de fibras nerviosas que conecta las regiones auditivas del lóbulo temporal con la región motora situada en el lóbulo frontal, en el hemisferio izquierdo del cerebro. Las diferencias individuales en el desarrollo de las conexiones en este haz condicionan la capacidad de aprendizaje de nuevas palabras. Los resultados del estudio se publican en la revista Proceedings of the National Academy of Sciences (PNAS).

Palabras artificiales

En el estudio han participado 27 voluntarios sanos. Los investigadores les hicieron escuchar nueve palabras trisilábicas artificiales, sin ningún significado asociado y con estructuras similares a las palabras de la lengua castellana. Entre palabra y palabra se dejaba una pausa de 25 milisegundos, imperceptible pero suficiente para ayudar al aprendizaje de las palabras en el habla fluida. Las nueve palabras se repetían de manera aleatoria 42 veces.

Para adquirir la información complementaria sobre la estructura y la función cerebral se utilizaron dos técnicas no invasivas de resonancia magnética.

Antes de llevar a cabo la tarea de aprendizaje de palabras, los investigadores adquirieron imágenes estructurales del cerebro mediante una técnica llamada de tensor de difusión. Esta técnica, muy innovadora, permite reconstruir a posteriori en vivo las fibras de sustancia blanca que conectan las diferentes regiones cerebrales. Además, mientras los participantes escuchaban las palabras, los investigadores registraron su actividad cerebral mediante resonancia magnética funcional, que permite detectar de forma muy precisa, en tiempo real, la actividad cerebral y, por tanto, las regiones que están más activas cuando el individuo realiza una tarea determinada.

Después de esta fase de aprendizaje lingüístico, los participantes escucharon una serie de palabras y se les pidió que identificaran las que habían escuchado durante la fase de aprendizaje.

Los investigadores detectaron una fuerte relación entre la capacidad de recordar palabras con la estructura del fascículo arqueado, que une dos grandes zonas del cerebro: el territorio de Wernicke, relacionado con la decodificación auditiva del lenguaje, y el territorio de Broca, que coordina los movimientos asociados al habla y el procesamiento del lenguaje. Los participantes que aprendían mejor las palabras, tenían el fascículo arqueado más mielinizado, según reveló un análisis de correlación con un índice indirecto sobre el contenido de mielina de las fibras nerviosas. Además, la sincronización entre la actividad de las regiones conectadas por este fascículo era mayor en estos participantes.

Modelos de conexión diferentes

La primera firmante del artículo, Diana López-Barroso, destaca que la investigación aporta nuevos datos sobre la capacidad única de los seres humanos para aprender un lenguaje, dado que existen modelos de conexión diferentes entre estas regiones cerebrales en otras especies.

Además, López-Barroso, explica que el estudio puede ser de utilidad en la rehabilitación de personas que tengan lesiones en el fascículo arqueado. "En este caso, podemos buscar otro camino para llegar al mismo sitio", explica la investigadora. Este otro camino podría ser la vía ventral, otro haz de fibras nerviosas que también conecta los territorios de Wernicke y Broca pero que transcurre por zonas más inferiores del cerebro. "La vía ventral, que está más relacionada con el procesamiento del significado de las palabras, implicaría dar un apoyo semántico al aprendizaje de palabras en personas con lesiones", concluye la primera firmante del artículo.

Referencia del artículo

López-Barroso D, Catani M, Ripollés P, Dell’Acqua F, Rodríguez-Fornells A, de Diego-Balaguer R. Word learning is mediated by the left arcuate fasciculus. PNAS.

Fuente:

LAS MÁQUINAS SE VUELVEN MÁS INTELIGENTES (hay evidencia de que aprenden como nosotros)


Exísten estudios sugieren que los modelos informáticos llamados redes neurales, que se utilizan en un número creciente de aplicaciones, pueden aprender a reconocer patrones en los datos utilizando los mismos algoritmos como lo hace el cerebro humano.


El cerebro realiza su tarea canónica - aprendizaje - por ajustar sus innumerables conexiones de acuerdo a un conjunto de reglas en secreto. Para desbloquear estos secretos, los científicos desde hace 30 años comenzaron a desarrollar modelos computacionales que intentan replicar el proceso de aprendizaje. Ahora, un número creciente de experimentos están revelando que estos modelos se comportan sorprendentemente similares a los cerebros reales al realizar ciertas tareas. Los investigadores dicen que las similitudes sugieren una correspondencia básica entre el cerebro y los ordenadores de algoritmos del aprendizaje subyacentes.

El algoritmo utilizado por un modelo de ordenador llamado la máquina de Boltzmann, inventado por Geoffrey Hinton y Terry Sejnowski en 1983, parece particularmente prometedora como una explicación teórica simple de un número de procesos del cerebro, incluyendo el desarrollo, la formación de la memoria, el objeto y el reconocimiento de sonidos, y el ciclo de sueño y la vigilia.

"Es la mejor posibilidad que realmente tenemos para comprender el cerebro en la actualidad", dijo Sue Becker, profesor de psicología, neurociencia y comportamiento en la Universidad McMaster en Hamilton, Ontario. "No sé de un modelo que explica una gama más amplia de los fenómenos en términos de aprendizaje y la estructura del cerebro."




Geofrey Hinton, uno de los pioneros del campo relativo a la inteligencia artificial.

Hinton, un pionero en el campo de la inteligencia artificial, siempre ha querido entender las reglas que rigen cuando el cerebro realiza una conexión y cuando disminuye su accionar - en resumen, el algoritmo de cómo aprendemos. "Me parece que si quieres entender algo, tiene que ser capaz de construir algo semejante", dijo. Siguiendo el enfoque reduccionista de la física, su plan era construir modelos informáticos simples del cerebro que emplea una variedad de algoritmos de aprendizaje y "ver cuáles funcionan", dijo Hinton, quien divide su tiempo entre la Universidad de Toronto, donde es profesor de ciencias de la computación.

Los entramados neuronales de capas múltiples se componen de capas de neuronas artificiales con conexiones ponderadas entre ellos. Los datos de entrada alimentados a la red envía una cascada de señales a través de las capas, y un algoritmo de aprendizaje dicta si hay que aumentar o disminuir el peso de cada conexión. El resultado es una red más en sintonía con los patrones que existen en los datos.


Las redes neuronales de capas múltiples se componen de capas de neuronas artificiales con conexiones ponderadas entre ellas. La entrada de datos que alimentan a la red envía una cascada de señales a través de las capas, y un algoritmo de aprendizaje dicta si hay que aumentar o disminuir el peso de cada conexión. El resultado es una red más sintonizada con los patrones que existen en los datos.

 Durante las décadas de 1980 y 1990, Hinton - el tatara-tatara-nieto del lógico del siglo 19 George Boole, cuyo trabajo es la base de la informática moderna - inventó o co-inventó una colección de algoritmos de aprendizaje automático. Los algoritmos, que indican cómo las computadoras para aprender a partir de datos, se utilizan en los modelos de ordenador llamadas redes neuronales artificiales - mapa de neuronas interconectadas virtuales, que transmiten señales a sus vecinos por el encendido y apagado, o Cuando los datos se introducen en el "disparo". red, lo que desencadenó una cascada de actividad de tiro, el algoritmo determina con base en los patrones de activación si aumentar o disminuir el peso de la conexión, o sinapsis, entre cada par de neuronas.
Durante décadas, muchos de los modelos de computadora de Hinton se desvanecieron. Pero gracias a los avances en la potencia de cálculo, la comprensión de los científicos sobre el cerebro y los propios algoritmos, redes neuronales están desempeñando un papel cada vez más importante en neurociencia. Sejnowski, jefe del Laboratorio de Neurobiología Computacional en el Instituto Salk de Estudios Biológicos en La Jolla, California, dijo: "Hace treinta años, teníamos ideas muy crudo, ahora estamos empezando a probar algunas de estas ideas."

Máquinas Cerebrales

Los primeros intentos de Hinton en replicar el cerebro eran limitadas. Las computadoras podían correr sus algoritmos de aprendizaje en las pequeñas redes neuronales, pero la ampliación de los modelos lograron abrumar rápidamente los procesadores. En 2005, Hinton descubrió que si seccionaba sus redes neuronales en capas y hacía pasar los algoritmos sobre ellos una capa a la vez, el proceso se hacía más eficiente, se aproximandose a la estructura del desarrollo del cerebro.

Aunque Hinton publicó su descubrimiento en dos principales revistas, redes neuronales habían caído en desgracia para entonces, y "él estaba luchando para conseguir que la gente interesada", dijo Deng Li, investigador principal de Microsoft Research en el estado de Washington. Deng, sin embargo, sabía Hinton y decidió dar a su método de "aprendizaje profundo", un intento en 2009, al ver rápidamente su potencial. En los años posteriores, los algoritmos de aprendizaje teóricos se han puesto en práctica en un número creciente de aplicaciones, tales como Google asistente personal y ahora la función de búsqueda por voz en los teléfonos de Microsoft Windows.

Uno de los más prometedores de estos algoritmos, la máquina de Boltzmann, lleva el nombre del físico austríaco Ludwig Boltzmann, quien desarrolló la rama de la física que se ocupan de un gran número de partículas, conocidas como la mecánica estadística. Boltzmann descubrió una ecuación que da la probabilidad de que un gas de moléculas que tienen una energía particular cuando se alcanza el equilibrio. Reemplace las moléculas con las neuronas, y la máquina de Boltzmann, ya que dispara, converge en exactamente la misma ecuación.

Las sinapsis en la red comienzan con una distribución aleatoria de los pesos y los pesos son ajustados progresivamente según un sencillo procedimiento: El patrón de actividad neuronal se genera mientras el equipo está siendo alimentado de datos (como imágenes o sonidos) se compara con la actividad hecha de manera aleatoria y la coacción se produce mientras que la entrada está apagada.

Geoffrey Hinton, un pionero en el campo de la inteligencia artificial, cree que la mejor manera de entender cómo aprenden los cerebros es tratar de construir equipos que aprenden de la misma manera. "Usted inevitablemente descubrirá mucho acerca de los problemas computacionales, y a un más acerca del nivel de comprensión de un modo en que ni los psicólogos lo han conseguido", dijo.

Cada una de las sinapsis virtuales siguen los dos conjuntos de estadísticas. Si las neuronas se conectan de inicio en secuencia con más frecuencia cuando son impulsadas por datos de los que cuando están disparadas al azar, el peso de la sinapsis se incrementará en una cantidad proporcional a la diferencia. Pero si dos neuronas más a menudo se disparan juntas durante la coacción al azar de despido por datos, la sinapsis de conectarlos es demasiado amplia y por lo tanto se debilitarán.

La versión más utilizada de la máquina de Boltzmann funciona mejor cuando está "entrenando", o alimenta a miles de ejemplos de datos, una capa a la vez. En primer lugar, la capa inferior de la red recibe datos en bruto que representan imágenes pixeladas o sonidos multitonal, y al igual que las células de la retina, las neuronas indican si detectan contrastes en su parcela de datos, funciona algo así como un interruptor que da la luz a la oscuridad. Disparando puede desencadenar neuronas conectadas, en función del peso de la sinapsis entre ellos. Como el disparo de pares de neuronas virtuales se compara repetidamente con las estadísticas de señales de fondo, las relaciones significativas entre las neuronas se establecen y refuerzan de forma gradual. Los pesos de las sinapsis son mate, y de imagen o sonido, las categorías se arraigan en las conexiones. Cada capa posterior esta entrenado de la misma manera, de acuerdo al uso de los datos que ingresen de la capa de abajo.

Si una imagen de un coche se alimenta en una red neuronal entrenada para detectar objetos específicos en imágenes, la capa inferior se activa si detecta un cambio, lo que indicaría un borde o punto final. Estas señales de las neuronas 'viajan a las neuronas de alto nivel, que detectan esquinas, partes de las ruedas, y así sucesivamente. En la capa superior, hay neuronas que disparan sólo si la imagen contiene un coche.

"La cosa mágica que sucede es que es capaz de generalizar", dijo Yann LeCun, director del Centro para la Ciencia de Datos en la Universidad de Nueva York. "Si usted demuestra que un coche que nunca ha visto antes, si es que tiene alguna forma o aspecto común a todos los coches que se lo mostró durante el entrenamiento, se puede determinar que es un coche."

Las redes neuronales han sido un éxito recientemente a su paso gracias al régimen de entrenamiento capa por capa de Hinton, el uso de chips de computadoras de alta velocidad llamado unidades de procesamiento gráfico y un aumento explosivo del número de imágenes y de voz grabada disponibles para ser utilizados para la formación. Las redes ahora pueden reconocer correctamente el 88 por ciento de las palabras que se hablan en las conversaciones normales, humanos, idioma Inglés, en comparación con alrededor del 96 por ciento para un oyente humano promedio. Se pueden identificar los coches y miles de otros objetos en las imágenes con una precisión similar y en los últimos tres años han llegado a dominar las competencias de aprendizaje automático.

Construyendo un Cerebro

Nadie sabe cómo determinar directamente las normas de aprendizaje del cerebro, pero hay muchas similitudes entre el comportamiento altamente sugestivos del cerebro y el de la máquina de Boltzmann.
Tanto aprender sin supervisión con excepción de los modelos que existen de forma natural en los datos. "Usted no consigue millones de ejemplos de su madre que le dice lo que hay en una imagen", dijo Hinton. "Hay que aprender a reconocer las cosas sin que nadie te dice lo que las cosas son. A continuación, después de enterarse de las categorías, la gente te dice el nombre de estas categorías. Así los niños aprenden acerca de los perros y gatos y luego se enteran de que los perros se llaman "perros y gatos se llaman 'gatos'".
Cerebros adultos son menos maleables que los menores de edad, tanto como una máquina de Boltzmann entrenado con 100.000 imágenes de automóviles no cambiará mucho al ver a otra: sus sinapsis ya tienen los pesos correctos para categorizar un coche. Y, sin embargo, el aprendizaje nunca termina. Nueva información todavía se puede integrar en la estructura de ambos cerebros y máquinas de Boltzmann.
En los últimos cinco a 10 años, los estudios de la actividad cerebral durante el sueño han proporcionado algunos de la primera evidencia directa de que el cerebro emplea un algoritmo de aprendizaje de Boltzmann-como el fin de integrar la nueva información y los recuerdos en su estructura. Los neurocientíficos saben desde hace tiempo que el sueño juega un papel importante en la consolidación de la memoria, ayudando a integrar la información recién aprendida. En 1995, Hinton y colegas propusieron que el sueño sirve la misma función que el componente de línea de base del algoritmo, la tasa de actividad neural en la ausencia de entrada.
"Lo que está haciendo durante el sueño es sólo estás averiguar el tipo de base", dijo Hinton. "Estás pensando cómo correlacionada serían estas neuronas si el sistema se ejecuta por sí mismo. Y entonces, si las neuronas son más correlacionadas que eso, aumentan entonces el peso entre ellas. Y por el contrario se vuelven menos correlacionadas que eso, y disminuyen el peso entre ellos. "

A nivel de las sinapsis ", este algoritmo puede implementarse de diferentes maneras", dijo Sejnowski, quien a principios de este año se convirtió en asesor de la Iniciativa BRAIN nueva de la administración Obama, un esfuerzo de investigación de $ 100 millones para el desarrollo de nuevas técnicas para el estudio del cerebro .
La forma más fácil para el cerebro para ejecutar el algoritmo de Boltzmann, dijo, es pasar de la pura sinapsis durante el día para detallar lo trabajado durante la noche. Giulio Tononi, director del Centro del Sueño y la Conciencia en la Universidad de Wisconsin-Madison, ha encontrado que la expresión de los genes dentro de las sinapsis cambios de una manera que apoye esta hipótesis: los genes implicados en el crecimiento sináptica son más activos durante el día, y los implicados en el recorte sináptico son más activos durante el sueño.
Por otra parte, "la línea de base puede ser calculada durante el sueño y los cambios realizados en relación con ella durante el día", dijo Sejnowski. Su laboratorio es la construcción de modelos detallados por ordenador de las sinapsis y las redes que sustentan a fin de determinar la forma en que recogen las estadísticas de disparo durante la vigilia y el sueño, y cuando cambie de concentración sináptica para reflejar la diferencia.

Las complicaciones cerebrales




Esta imagen de la retina, en la que los diferentes tipos de células se tiñen con diferentes colores, destaca su estructura en capas. Conos sensibles al color (morado) se conectan a las células horizontales (naranja), que conectan con las células bipolares (verde), y los que se conectan a amacrinas y células ganglionares (magenta)Imagen obtenida por Josh Morgan (RO Wong laboratorio), tomada de la revista Nature.

Un algoritmo de Boltzmann-como puede ser sólo uno de los muchos que el cerebro emplea para modificar sus sinapsis. En la década de 1990, varios grupos independientes desarrollaron un modelo teórico de cómo el sistema visual codifica de manera eficiente el flujo de información golpear la retina. La teoría sostiene que un proceso similar al de compresión de imagen llamado "codificación dispersos" se llevó a cabo en las capas más bajas de la corteza visual, por lo que las etapas posteriores del sistema visual se tornan más eficientes.

Las predicciones del modelo están pasando poco a poco cada vez más estrictas pruebas experimentales. En un artículo publicado en PLOS Computational Biology en mayo, los neurocientíficos computacionales en el Reino Unido y Australia encontraron que cuando las redes neuronales utilizando un algoritmo de codificación escasos llamados Artículos de Expertos, inventados por Hinton en 2002, están expuestos a los mismos datos visuales anormales como gatos vivos (por ejemplo, los gatos y las redes neuronales tanto ver sólo las imágenes de rayas), las neuronas desarrollan casi exactamente las mismas anomalías.

"Para cuando la información llega a la corteza visual, pensamos que el cerebro representa como un código escaso", dijo Bruno Olshausen, neurocientífico computacional y director del Centro de Redwood de neurociencia teórica en la Universidad de California-Berkeley, quien ayudó a desarrollar la teoría de la codificación dispersos. "Así que es como si tuvieras una máquina de Boltzmann sentado en la parte posterior de la cabeza tratando de aprender las relaciones entre los elementos del código escaso."

Olshausen y su equipo de investigación utilizados recientemente modelos de redes neuronales de las capas superiores de la corteza visual para mostrar cómo los cerebros son capaces de crear la percepción estables de entradas visuales a pesar de movimiento de la imagen. En otro estudio reciente, se encontraron con que la actividad disparo de las neuronas en la corteza visual de gatos que miran una película negro y blanco fue bien descrita por una máquina de Boltzmann.

Una aplicación potencial de que el trabajo es en la construcción de prótesis neural, como una retina artificial. Con una comprensión de "el formato de la información en el cerebro, que se sabe cómo estimular el cerebro para hacer que alguien piense que están viendo una imagen", dijo Olshausen.

Sejnowski dice entender los algoritmos mediante el cual las sinapsis crecen y se encogen permitirá a los investigadores alteran a estudiar cómo funciona la red se descomponen. "Luego se puede comparar a los problemas conocidos que los seres humanos tienen", dijo. "Casi todos los trastornos mentales pueden atribuirse a problemas en las sinapsis. Así que si podemos entender sinapsis un poco mejor, vamos a ser capaces de entender la función normal del cerebro, cómo procesa la información, cómo se aprende, y de lo que va mal cuando se tiene, por ejemplo, la esquizofrenia ".

El enfoque de red neural para la comprensión del cerebro contrasta marcadamente con la de la Human Brain Project, el plan de Suiza neurocientífico Henry Markram muy publicitado para crear una simulación precisa de un cerebro humano utilizando una super-computadora. A diferencia de enfoque de comenzar con un modelo muy simplificado y poco a poco lo que es más complejo de Hinton, Markram quiere incluir como detalle tanto como sea posible desde el principio, en moléculas individuales, con la esperanza de que la completa funcionalidad y la conciencia surgirán.

El proyecto recibió $ 1.3 mil millones en fondos de la Comisión Europea en enero, pero Hinton cree que el mega-simulacro fallará, sumido en demasiadas partes móviles que todavía nadie entiende. (Markram no respondió a solicitudes de comentarios.)

En términos más generales, Hinton no piensa el funcionamiento del cerebro se pueden deducir únicamente de los detalles de los estudios de imágenes del cerebro, sino que estos datos deben utilizarse para construir y perfeccionar los algoritmos. "Uno tiene que estar pensando en teoría y explorar el espacio de los algoritmos de aprendizaje para llegar a una teoría como" la máquina de Boltzmann, dijo. Para Hinton, el siguiente paso es el desarrollo de algoritmos para la formación de redes neuronales aún más semejantes a las que exísten en el cerebro, tales como los que tienen las sinapsis que conectan las neuronas dentro de, no sólo entre, capas. "Un objetivo importante es entender lo que ganas por tener cálculos computacionalmente más complicada en cada etapa", dijo.

La hipótesis es que la mayor interconexión permite a los bucles de retroalimentación más fuertes, lo que, según Olshausen, son probablemente la forma en que el cerebro alcanza "relleno perceptual", donde las capas superiores hacen inferencias acerca de lo que las capas inferiores están sintiendo sobre la base de información parcial. "Eso está íntimamente ligada a la conciencia", dijo.

El cerebro humano, por supuesto, sigue siendo mucho más complicado de lo que cualquiera de los modelos, sino que es más grande, más denso, más eficiente, más interconectado, tiene las neuronas más complejas - y hace malabares con varios algoritmos simultáneamente. Olshausen ha estimado que entendemos sólo el 15 por ciento de la actividad en la corteza visual. Aunque los modelos están haciendo progresos, la neurociencia es todavía "un poco como la física antes de Newton", dijo. Sin embargo, confía en que el proceso de construcción de estos algoritmos puede que algún día explicar el enigma final del cerebro - cómo los datos sensoriales se transforman en una conciencia subjetiva de la realidad. La conciencia, Olshausen dijo, "es algo que surge de una máquina de Boltzmann de un modo muy, muy complicado."


Fuente:
https://www.simonsfoundation.org/quanta/20130723-as-machines-get-smarter-evidence-they-learn-like-us/

Para saber más visiten:
http://www.ploscompbiol.org/article/info%3Adoi%2F10.1371%2Fjournal.pcbi.1003005

Al menos 78 muertos tras descarrilar tren de pasajeros cerca de Santiago de Compostela


Un tren de pasajeros ha descarrilado en las proximidades de Santiago de Compostela, en las inmediaciones del barrio de Angrois. Fuentes de la investigación hablan de más de 78 víctimas, informan los medios locales.

Se trata de un tren Alvia que cubría la ruta entre Madrid y Ferrol. Unas 247 personas viajaban en el tren. Hay más de 140 heridos, entre ellos cinco personas en coma, informan las fuentes sanitarias. El accidente se ha producido a las 20:45 hora local en la bifurcación de A Grandeira, a poco más de tres kilómetros de Santiago de Compostela. Según RTVE, 13 vagones han quedado volcados sobre las vías.

Las autoridades de Galicia han declarado siete días de luto por las víctimas del accidente ferroviario. Por su parte, el presidente del Gobierno, Mariano Rajoy, anunció tres días de luto oficial en todo el país.