Información

Distribución del número de sinapsis por neurona

Distribución del número de sinapsis por neurona


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Hay un número medio de sinapsis por neurona en el cerebro humano que no es muy conocido, pero es del orden de 10.000. (Algunos dicen que son alrededor de 6,000, otros dicen que son alrededor de 50,000).

¿Qué se sabe sobre el distribución del número de sinapsis - en un sentido muy aproximado?

Ciertamente, el número no se distribuye normalmente alrededor de un valor medio de alrededor de 10.000 (porque hay tipos muy diferentes de neuronas).

Más probable, hay algunos tipos de neuronas con números medios típicos de sinapsis (cada una distribuida normalmente), lo que daría una distribución como esta:

En aras de la simplicidad, quiero preguntar:

Si tuviéramos que agrupar números de sinapsis aproximadamente en contenedores de potencias de diez, ¿qué tan altos serían los picos, aproximadamente?


Distribución del número de sinapsis por neurona - Biología

Dado que el genoma humano contiene solo

30.000 genes, es poco probable que tales conexiones sinápticas complejas puedan ser determinadas únicamente por el patrón de expresión génica. Además, las conexiones deben modificarse en respuesta a la estimulación externa para establecer un vínculo significativo entre el entorno externo y las representaciones sensoriales internas. El almacenamiento de información por parte del sistema nervioso se basa en el refinamiento continuo de las conexiones dentro del hipocampo y la corteza cerebral para dar forma al patrón de actividad neuronal. Por lo tanto, comprender los principios que rigen este proceso de refinamiento y los procesos que proporcionan la organización sináptica es de considerable interés para dilucidar cómo se mantiene la información en el cerebro.

Esta premisa fundamental se ha estudiado ampliamente. El trabajo pionero de Hubel y Wiesel estableció que el patrón de actividad neuronal juega un papel crucial en la configuración de las conexiones neuronales durante el desarrollo temprano del sistema visual. Un trabajo sustancial en el campo de la plasticidad sináptica proporcionó una mayor comprensión de cómo los patrones de actividad neuronal pueden modificar las conexiones sinápticas. Las preguntas centrales que quedan por resolver son cómo se forman y se & # 8220ajustan & # 8221 las redes neuronales modificando las conexiones sinápticas dentro de las redes neuronales. La respuesta a estas preguntas puede proporcionar el puente entre el conocimiento a nivel sináptico y los fenómenos a nivel de la red neuronal. Para abordar estas preguntas, es necesario determinar las propiedades elementales de las sinapsis individuales y luego identificar las propiedades que juegan un papel crítico durante la formación de redes neuronales. Para probar y refinar hipótesis, es necesario monitorear el proceso dinámico de formación de redes neuronales. Hemos llevado a cabo una serie de experimentos para abordar estas cuestiones en neuronas del hipocampo cultivadas. Esta preparación reducida nos permite estudiar los procesos dinámicos de formación y maduración de sinapsis. También proporciona la accesibilidad necesaria para realizar experimentos biofísicos en una sola sinapsis. Para comprobar si las conclusiones derivadas de los resultados obtenidos de preparaciones reducidas son aplicables a animales intactos, también realizamos los experimentos en animales intactos.

Recientemente, nos hemos centrado en:

Organización de sinapsis excitadoras e inhibidoras en dendritas hipocampales. Cada neurona del sistema nervioso central tiene varios miles de sinapsis excitadoras e inhibidoras distribuidas a lo largo de su extenso árbol dendrítico. Las interacciones dinámicas de las entradas sinápticas excitadoras e inhibidoras juegan un papel importante en el control del patrón temporal de la actividad neuronal, una característica esencial de la computación neuronal. Hemos desarrollado un amplio conocimiento de las propiedades fisiológicas de las sinapsis individuales. Sin embargo, los modos de organización estructural y la interacción funcional de las sinapsis excitadoras e inhibidoras en el árbol dendrítico aún se desconocen en gran medida. Es importante comprender estos principios, porque la computación neuronal en redes neuronales funcionales implica la activación de cientos de sinapsis excitadoras e inhibidoras. Además, un número creciente de estudios sugiere que la computación neuronal ocurre dentro de las ramas dendríticas. Para abordar estas cuestiones fundamentales, estudiamos los patrones de organización de las sinapsis excitadoras e inhibitorias en el árbol dendrítico. Encontramos que las sinapsis excitadoras e inhibitorias están equilibradas estructural y funcionalmente en las ramas dendríticas individuales. Este equilibrio excitador e inhibitorio se establece y mantiene mediante un poderoso mecanismo regulador & # 8220push-pull & # 8221, que da como resultado un nivel óptimo de entradas sinápticas en cada árbol dendrítico. Para explorar las implicaciones funcionales de esta disposición sináptica, estudiamos las interacciones funcionales de las entradas excitatorias e inhibitorias en árboles dendríticos y encontramos que las sinapsis inhibitorias pueden determinar el impacto de las sinapsis excitadoras adyacentes solo si están co-localizadas en la misma rama dendrítica y son activado casualmente. Este es el primer trabajo experimental que demuestra la interacción local de las sinapsis excitadoras e inhibidoras en el árbol dendrítico y apoya las predicciones teóricas tempranas de las propiedades de la interacción excitadora e inhibidora (E / I). Con base en estos hallazgos novedosos, proponemos que la distribución uniforme de las sinapsis E / I y la naturaleza local de sus interacciones funcionales en las ramas dendríticas establecen las bases estructurales y funcionales para la computación neuronal en las ramas dendríticas.

Identificar los parámetros de fuerza sináptica. Un objetivo continuo de la fisiología sináptica es identificar los parámetros de la estructura sináptica que influyen de manera más dramática en la función sináptica. Recopilar una lista de tales atributos es el primer paso natural para identificar los interruptores fisiológicos reales que utilizan las redes de neuronas para refinar su conectividad. Si bien el trabajo de muchos grupos ha identificado con éxito una serie de mecanismos postsinápticos que determinan la fuerza sináptica, se ha avanzado comparativamente menos en el descubrimiento de los mecanismos presinápticos que contribuyen a la fuerza sináptica, aunque tales mecanismos podrían influir en la activación postsináptica controlando el perfil de liberación del transmisor. Un trabajo reciente en nuestro laboratorio ha identificado uno de los primeros sitios presinápticos de regulación de la especificación de la transmisión sináptica cuántica. Experimentamos con pequeñas moléculas transportadoras que trabajan para llenar las vesículas sinápticas con neurotransmisores antes de la transmisión. Al mejorar genéticamente el número de estas moléculas de transporte, pudimos impulsar la transmisión excitadora aumentando presinápticamente la cantidad de transmisor cargado y liberado. Este emocionante resultado demuestra que los factores presinápticos, además de los postsinápticos, pueden ser importantes para determinar la eficacia de la transmisión sináptica. El trabajo en el laboratorio continúa avanzando en la identificación de nuevos sitios regulatorios que las redes neuronales pueden usar para controlar la fuerza de sus conexiones.

Publicaciones Seleccionadas
Liu, G. Control presináptico del tamaño cuántico: mecanismos cinéticos y sus implicaciones en la transmisión sináptica y la plasticidad. Opinión actual en neurobiología. 13: 324-331 (2003).

Liu, G. Equilibrio estructural local e interacción funcional de las sinapsis excitadoras e inhibidoras en las dendritas del hipocampo. (enviado) (2003).


Preguntas frecuentes sobre esta investigación

P. ¿Cuál fue el propósito de este estudio?

El propósito de este estudio fue explorar y comprender cómo se modelan las secuencias en la neocorteza. Creemos que el modelado de secuencias es una propiedad fundamental que subyace al comportamiento inteligente y que debe estar ocurriendo en todas partes del neocórtex. Este estudio es parte de nuestro mayor esfuerzo para realizar ingeniería inversa
neocórtex y mejorar nuestra comprensión general de cómo aprende el cerebro.

P. ¿Cuáles son las conclusiones clave?

  • Las neuronas biológicas son significativamente más complejas que los modelos simples utilizados en la mayoría de las redes neuronales artificiales. Comprender estas diferencias es importante.
  • Una red que incorpore neuronas piramidales más realistas puede aprender secuencias complejas de una manera sorprendentemente robusta y flexible. El modelo aprende de una manera completamente sin supervisión y es mucho más adaptable que las técnicas tradicionales de aprendizaje automático.
  • Nuestro modelo incorpora una gran cantidad de hallazgos de la neurociencia experimental. Como tal, el modelo es capaz de realizar predicciones detalladas que esperamos puedan guiar la investigación experimental futura.

P. ¿En qué se diferencia esta investigación de otros estudios?

Hay dos diferencias clave:

  1. La mayoría de los modelos que se utilizan hoy en día en el aprendizaje automático difieren mucho del modelo que se ofrece en este documento. Se derivan matemáticamente y tienen muy poco en común con la biología.
  2. A diferencia de la mayoría de los modelos de neurociencia computacional, el algoritmo descrito aquí no se limita a un pequeño conjunto de experimentos de neurociencia. El algoritmo ha sido probado y validado en varias tareas de valor comercial, como la detección de anomalías en la transmisión de datos.

P. ¿Cómo se realizaron las simulaciones?

Para este artículo, escribimos código de simulación en Python para demostrar varias propiedades de la memoria de secuencias. Usamos la implementación de HTM de referencia disponible en el proyecto de código abierto NuPIC.

P. ¿Puedo replicar estas simulaciones?

¡Sí! De acuerdo con la filosofía de investigación abierta de Numenta, el código fuente para replicar los gráficos en el documento se puede encontrar aquí. También damos la bienvenida a preguntas y discusiones sobre el documento en el Foro HTM.

P. ¿Cómo contribuirá este artículo a la neurociencia?

Este artículo ofrece un modelo computacional de neuronas piramidales y una explicación de cómo una neurona usa miles de sinapsis y dendritas computacionalmente activas para aprender secuencias. El artículo también enumera varias predicciones detalladas que pueden usarse para guiar a los neurocientíficos experimentales interesados ​​en estudiar la memoria de secuencias.

P. ¿Cómo contribuye este documento al aprendizaje automático?

Esta investigación ofrece un nuevo algoritmo de memoria de secuencia que los expertos en aprendizaje automático pueden probar, experimentar y verificar. Ya hemos creado un software que demuestra cómo funciona la teoría en varias aplicaciones. Creemos que otros pueden utilizar este algoritmo para crear una amplia gama de aplicaciones.

P. ¿Cuáles son las propiedades clave de aprendizaje automático del modelo?

El modelo descrito en el documento demuestra las siguientes propiedades clave:

  1. Aprender en línea
  2. Secuencias de orden superior
  3. Varias predicciones simultáneas
  4. Reglas de aprendizaje locales no supervisadas
  5. Robustez
  6. Uso de representaciones distribuidas escasas

Un documento complementario, que aparece en Neural Computation, noviembre de 2016, volumen 28, proporciona comparaciones de aprendizaje automático más detalladas de las propiedades anteriores.

P. ¿Dónde puedo encontrar más información?

El Foro HTM es un gran recurso para más preguntas y discusiones sobre la teoría HTM. Los autores de este artículo son participantes activos en el foro.

P. ¿Qué sigue para esta investigación?

Esta investigación forma la base de nuestro objetivo general de aplicar ingeniería inversa al neocórtex. Nuestra investigación actual se basa en esta teoría y se centra en el aprendizaje sensoriomotor, cómo el neocórtex aprende y construye un modelo del mundo a través del movimiento.

Numenta • Jeff Hawkins y Subutai Ahmad • Publicado en Frontiers in Neural Circuits Journal (revisado por pares)

Introducción

Las neuronas excitadoras del neocórtex tienen miles de sinapsis excitadoras. Las sinapsis proximales, las más cercanas al cuerpo celular, tienen un efecto relativamente grande sobre la probabilidad de que una célula genere un potencial de acción. Sin embargo, la mayoría de las sinapsis son distales o alejadas del cuerpo celular. La activación de una sola sinapsis distal tiene poco efecto en el soma, y ​​durante muchos años fue difícil imaginar cómo las miles de sinapsis distales podrían desempeñar un papel importante en la determinación de las respuestas de una célula (Major et al., 2013). Se ha observado que las ramas dendríticas son elementos de procesamiento activos. La activación de varias sinapsis distales dentro de una estrecha proximidad espacial y temporal puede conducir a un pico de NMDA dendrítico local y, en consecuencia, a una despolarización significativa y sostenida del soma (Antic et al., 2010 Major et al., 2013). Esto ha llevado a algunos investigadores a sugerir que las ramas dendríticas actúan como reconocedores de patrones independientes (Poirazi et al., 2003 Polsky et al., 2004). Sin embargo, los beneficios funcionales y teóricos de las redes de neuronas con dendritas activas en comparación con una red multicapa de neuronas sin dendritas activas no están claros (Poirazi et al., 2003).

A falta de una teoría de por qué las neuronas necesitan dendritas activas, casi todas las redes neuronales artificiales, como las que se utilizan en el aprendizaje profundo (LeCun et al., 2015) y las redes neuronales de picos (Maass, 1997), utilizan neuronas artificiales con modelos dendríticos simplificados, introduciendo la posibilidad de que les falten aspectos funcionales clave del tejido neural biológico. Para comprender cómo funciona el neocórtex y construir sistemas que funcionen con los mismos principios que el neocórtex, necesitamos comprender cómo las neuronas biológicas integran la entrada de miles de sinapsis y si las dendritas activas desempeñan un papel esencial. Por supuesto, las neuronas no se pueden entender de forma aislada. Por lo tanto, también necesitamos una teoría complementaria de cómo las redes de neuronas, cada una con dendritas activas, trabajan juntas hacia un propósito común.

En este artículo presentamos tal teoría. Primero, mostramos cómo una neurona piramidal típica con dendritas activas y miles de sinapsis puede reconocer cientos de patrones independientes de actividad celular. Mostramos que una neurona puede reconocer estos patrones independientes incluso en presencia de grandes cantidades de ruido y variabilidad siempre que la actividad neuronal general sea escasa. A continuación, presentamos un modelo de neuronas donde las entradas a diferentes partes del árbol dendrítico sirven para diferentes propósitos. En este modelo, los patrones detectados en las dendritas proximales conducen a potenciales de acción, definiendo el campo receptivo clásico de la neurona. Los patrones reconocidos por las sinapsis distales de una neurona actúan como predicciones al despolarizar la célula sin causar directamente un potencial de acción. Mediante este mecanismo, las neuronas pueden aprender a predecir su activación en cientos de contextos únicos. Luego mostramos cómo una red de tales neuronas puede aprender y recordar secuencias de patrones. La red se basa en un proceso competitivo en el que las neuronas previamente despolarizadas emiten un pico antes que las neuronas no despolarizadas. Cuando se combina con la inhibición local rápida, el estado de activación de la red está sesgado hacia sus predicciones. Un ciclo de activación que conduce a la predicción que conduce a la activación, etc. forma la base de la memoria de secuencia.

Describimos un conjunto de reglas de aprendizaje y activación necesarias para las neuronas con dendritas activas. Una red de neuronas estándar lineales o no lineales con una estructura dendrítica simplificada no puede implementar fácilmente estas reglas de activación y aprendizaje. Hacerlo requeriría la introducción de varias características complejas y biológicamente improbables. Por lo tanto, hemos optado por utilizar un modelo de neuronas que incluye dendritas activas, así como zonas de integración de dendritas proximales, basales y apicales, que creemos que se asemejan más a la anatomía y fisiología neuronal conocidas.

A través de la simulación, ilustramos que la red de memoria de secuencias exhibe numerosas propiedades deseables, como el aprendizaje en línea, múltiples predicciones simultáneas y robustez. La teoría general es consistente con una gran cantidad de evidencia experimental. Describimos una serie de predicciones biológicas detalladas que se pueden utilizar para probar aún más la teoría.


Mecanismos moleculares y celulares de la adicción

Peter A. Neumann, Yan Dong, en Investigación biológica sobre adicciones, 2013

Sinapsis silenciosas

Las sinapsis silenciosas son sinapsis, que solo expresan de manera estable NMDAR en el sitio postsináptico. Como se discutió anteriormente, los AMPAR generalmente acompañan a los NMDAR en el sitio postsináptico porque los NMDAR requieren un nivel elevado de despolarización antes de que puedan funcionar. Pero en este caso, debido a que los AMPAR no se expresan de manera estable, cuando el glutamato se libera en el espacio sináptico y en los NMDAR, estas sinapsis específicas no son funcionales, de ahí el nombre de "sinapsis silenciosas". Se ha demostrado que las sinapsis silenciosas se inducen de novo dentro de la NAc después de la exposición a la cocaína. La evidencia muestra que las sinapsis silenciosas pueden ser un precursor de una sinapsis recién generada, que existe en una etapa durante el desarrollo de la sinapsis antes de que los AMPAR se inserten de manera estable en la membrana para complementar los NMDAR. Esta línea de pensamiento indica que se están formando circuitos y vías completamente nuevos dentro del sistema de dopamina mesolímbico en respuesta a experiencias con drogas. Además, la plasticidad sináptica parece ocurrir más fácilmente en las sinapsis silenciosas, ya que estas sinapsis parecen estar preparadas para cambios de tipo LTP en lugar de cambios de tipo LTD.


Transmisión sinaptica

Flavio Fröhlich, en Neurociencia en red, 2016

Resumen y Outlook

En este capítulo, analizamos la transmisión sináptica tanto química como eléctrica. Para las sinapsis químicas, revisamos cómo la naturaleza probabilística de la liberación de neurotransmisores da lugar a la cinética de las corrientes postsinápticas, aprendimos sobre la composición y farmacología de los receptores e introdujimos modelos cuantitativos. Para las sinapsis eléctricas, observamos cómo el cambio en el voltaje de la membrana de una neurona afecta el voltaje de la membrana de otra neurona que comparte una unión gap. En conjunto, este capítulo nos prepara para el estudio de las redes al presentar el elemento principal por el cual las neuronas forman redes. Además, los modelos cuantitativos derivados aquí se utilizan ampliamente en un gran número de simulaciones de redes neuronales. En el próximo capítulo, discutiremos cómo las sinapsis cambian su fuerza a través de la plasticidad, el mecanismo básico del aprendizaje y la memoria.


Discusión

Actualmente no hay consenso entre las opiniones sobre cómo se desarrollan los patrones de conexiones en una red motora. Por un lado, una gran cantidad de especificidad codificada genéticamente es evidente en partes de la médula espinal del ratón. Por ejemplo, las aferentes del grupo 1a se dirigen a los grupos de neuronas motoras con precisión y su conectividad está amortiguada, de modo que el flujo de información normal se mantiene en gran medida frente a perturbaciones considerables [34]. La precisión del cableado es quizás más explícita en el posicionamiento selectivo de las sinapsis inhibidoras por las llamadas preinterneuronas GABA en los terminales de las aferentes sensoriales 1a propioceptivas. Este cableado preciso y aparentemente invariante está mediado por la expresión de al menos dos conjuntos de moléculas de adhesión celular transinápticas heterófilas complementarias [35, 36]. En contraste con este punto de vista, están los estudios de Xenopus renacuajos, donde las grabaciones de dos electrodos demostraron inequívocamente una sorprendente falta de especificidad en las conexiones sinápticas durante las primeras etapas del desarrollo de la red motora. El modelado basado en estas observaciones sugiere además que estos patrones de cableado más bien inespecíficos son capaces de generar salidas motoras similares a la natación y que esos patrones de conectividad podrían formarse simplemente a través de la superposición geográfica de zonas de terminación presinápticas y postsinápticas toscamente definidas [30, 32]. Una limitación de esos estudios es que miran grupos de células similares, lo que ha impedido obtener conocimientos detallados a nivel de sinapsis individuales durante el tiempo de desarrollo. Aquí, trabajamos con neuronas asociadas identificadas y estudiamos cómo cambian los patrones sinápticos en una red motora, a medida que el animal se desarrolla y crece.

La conectividad se consolida durante el desarrollo

Una observación sorprendente de este estudio es que en la cara de salida de la red, las motoneuronas aumentan los contactos sinápticos con los socios presinápticos existentes a lo largo del tiempo (Figuras 1 H y 1I). Esto se correlaciona con observaciones previas de que el impulso sináptico también aumenta durante este período de desarrollo larvario, aunque todavía no tenemos una lectura fisiológica de los cambios anatómicos específicos que detallamos en este estudio. En el caso de las neuronas motoras, el fortalecimiento observado de las conexiones existentes es probablemente un mecanismo de adaptación que mantiene la capacidad de despolarizar eficazmente los músculos a medida que se agrandan durante el desarrollo [17]. Aunque no hemos podido analizar la adición de nuevos socios presinápticos durante el desarrollo, esta estrategia de cableado contrasta con las propuestas para las neuronas corticales, donde se cree que las células piramidales maximizan la diversidad de entradas presinápticas mientras mantienen el número de sinapsis con cada socio al mínimo. [37].

La conectividad en el sistema motor es específica de la celda pero variable

Sorprendentemente, las interacciones célula-célula reproducibles durante el desarrollo del sistema nervioso pueden codificarse genéticamente, y esto se ha demostrado más claramente con células nerviosas identificadas de invertebrados, desde elecciones de sustrato altamente específicas durante la búsqueda de la ruta del axón [38] hasta la selección de socios sinápticos y el número de sinapsis formadas [10, 39]. En el Drosophila sistema motor larvario, encontramos que diferentes tipos de neuronas motoras tienen patrones característicos de conexiones. Por ejemplo, la probabilidad de formar conexiones con las neuronas sensoriales dda propioceptivas difiere entre las motoneuronas RP2 y aCC (Figura & # x000a01 I). Las diferencias cualitativas en la especificidad de la elección de socios también están presentes en que el INlateral forma conexiones con las motoneuronas que inervan los músculos longitudinales de la pared del cuerpo (por ejemplo, aCC, RP2 y RP3), pero no con las motoneuronas que se cree que funcionan como antagonistas, a pesar de la proximidad de sus dendritas [24, 40] (Figura & # x000a02).

Al mismo tiempo, este sistema motor también manifiesta un grado considerable de variabilidad, tanto en la probabilidad como en el número de conexiones que se forman entre las interneuronas motoras y premotoras. Aunque algunos patrones de conexión parecen volverse más reproducibles durante las primeras fases de maduración de la red, como los que se encuentran entre la motoneurona RP2 y los terminales sensoriales dda, en general, nuestras observaciones sugieren que la conectividad es inherentemente flexible y que es el resultado de la célula local. interacciones celulares, al menos entre la mayoría de las células que hemos podido estudiar. Por ejemplo, dos motoneuronas idénticas (en diferentes neurómeros) en contacto con el mismo INlateral El axón puede formar números bastante diferentes de conexiones putativas con la misma célula presináptica (Figura & # x000a04 A). Es concebible que estas conexiones sean variables porque no son críticas para el funcionamiento del sistema motor, y queda por ver hasta qué punto las observaciones de este estudio son representativas de la conectividad en otras partes de esta red.

¿Dónde reside la información que determina estos resultados de conectividad? No encontramos correlación con la identidad segmentaria (Figura & # x000a0S4) o evidencia de información de patrones presinápticos: el número de sitios de liberación presináptica que cualquier persona INlateral hace varía considerablemente, tanto entre animales como dentro de ellos (homólogo izquierdo versus derecho), y su distribución a lo largo del axón parece ser aleatoria, aunque bastante uniforme, con números similares de sitios presinápticos por neurómero (Figuras 4 B y 4C). Lo más compatible con nuestros datos es la noción de que los patrones de conectividad están determinados predominantemente por las dendritas postsinápticas de las motoneuronas.

Los terminales postsinápticos regulan el número de sinapsis

Anteriormente mostramos que las motoneuronas logran un rango específico de entrada sináptica ajustando el crecimiento de sus árboles dendríticos [28]. Estos ajustes estructurales reflejan y complementan los cambios homeostáticos de las propiedades excitables neuronales [41, 42]. Aquí, mostramos que diferentes patrones de crecimiento dendrítico conducen a diferentes resultados de conectividad. Por ejemplo, las motoneuronas aCC son capaces de iniciar el crecimiento de ramas dendríticas de diferentes partes de la célula, que pueden formar conexiones con los terminales dda ipsilaterales y / o contralaterales, o con ninguno (Figura & # x000a03). En una situación análoga, en la retina del ratón, las diferencias en el crecimiento dendrítico conducen a distintos patrones de conexión entre diferentes células bipolares y terminales de fotorreceptores presinápticos [43]. Probamos experimentalmente cómo el posicionamiento dendrítico afecta la conectividad. Cambiar el sesgo para que las neuronas motoras elaboren preferentemente sus dendritas hacia la línea media ventral da como resultado cambios en la conectividad, es decir, reducciones en la proporción de sinapsis con el IN lateral.lateral y aumentos concomitantes en las conexiones con el IN localizado medialmentemedio axón (Figura & # x000a05). Aunque este experimento no informa sobre la elección de socios, ya que tanto el INlateral y enmedio son normalmente contactados por estas motoneuronas, sugiere que el número de conexiones está determinado por la medida en que los cenadores terminales presinápticos y postsinápticos se dirigen a regiones comunes. Estos experimentos en el Drosophila larva apoyan observaciones y modelos de conectividad en la red motora de Xenopus renacuajos, que sugieren que la matriz de conectividad podría estar determinada en parte considerable por la superposición geográfica de territorios presinápticos y postsinápticos toscamente definidos [30, 32]. Existe evidencia de que los sistemas conservados de señales de guía Slit-Robo y Netrin-Frazzled / DCC definen dichos territorios para posicionar los tractos axónicos y las regiones de arborización dendrítica en el SNC y que estos pueden contribuir a dar forma a la conectividad sináptica [31, 33, 44 & # x0201346 ]. Dicho esto, queda por establecer cómo la promiscuidad de las conexiones aparente a principios de Xenopus renacuajos cambia a lo largo del tiempo de desarrollo y en qué medida la especificidad cableada está codificada genéticamente en otras partes del Drosophila o incluso en otras redes de motores.


Distribución del número de sinapsis por neurona - Biología

Figura 1: Estructura de una unión neuromuscular. (A) Imagen de microscopía electrónica de una terminal nerviosa y su sinapsis con una célula vecina en una unión neuromuscular. (B) Imagen de reconstrucción por microscopía crioelectrónica de una fracción de la neurona presináptica que muestra las vesículas sinápticas que alberga para su liberación futura. (C) Esquema de una sinapsis. Tenga en cuenta que la hendidura sináptica, las vesículas, etc. no están dibujadas a escala. (A, B adaptado de S. O. Rizzoli y W. J. Betz, Nat. Rev. Neurosci., 6:57, 2005.)

Figura 2: Tamaño de las sinapsis en el cerebro. (A) Imagen de microscopía electrónica de una sinapsis entre un axón y una dendrita. (B) Reconstrucción de una sinapsis como la que se muestra en (A) que ilustra las vesículas sinápticas. (C) Distribución de los tamaños de las sinapsis medidas mediante microscopía electrónica. (Figuras cortesía de Linnaea Ostroff)

Hasta ahora en el libro, nos hemos centrado principalmente en los tamaños de las células individuales y las moléculas, complejos macromoleculares y orgánulos dentro de ellas. La multicelularidad, sin embargo, se trata de asociaciones entre células. Un hermoso ejemplo de nuestra propia multicelularidad lo proporcionan las células de nuestro sistema nervioso. Estas celdas son parte de una amplia y compleja gama de interacciones que recién ahora están comenzando a mapearse. El asiento de las interacciones entre las neuronas vecinas son las sinapsis, la interfaz entre las células en la que pequeñas protuberancias adoptan una configuración de beso como se ve en las Figuras 1 y 2 para los casos de una unión neuromuscular y una sinapsis en el cerebro, respectivamente. Estas sinapsis son responsables de la propagación de información de una neurona a la siguiente. Curiosamente, la transmisión de información en el sistema nervioso es en parte eléctrica y en parte química. Es decir, cuando un potencial de acción viaja a lo largo de un nervio, lo hace cambiando transitoriamente el potencial transmembrana de su valor de reposo altamente negativo a un potencial positivo casi igual. Cuando el potencial de acción alcanza la sinapsis, esto conduce a la fusión de vesículas y la posterior liberación de señales químicas (neurotransmisores) que inducen la apertura de canales en la célula vecina con la que se ha formado la sinapsis. Esto, a su vez, da como resultado un potencial de acción en la celda vecina. Como se ve en las Figuras 1 y 2, la sinapsis se compone de una terminal presináptica en el axón de la neurona transmisora ​​y una terminal postsináptica con la denominada hendidura sináptica entre ellas. Se ha afirmado vagamente que el número total de tales sinapsis en el cerebro humano está en el rango de 10 13-10 15 (BNID 106138, 100693), y cada milímetro cúbico de corteza cerebral tiene alrededor de mil millones de tales sinapsis (BNID 109245).

Figura 3: Imágenes de la sinapsis. (A) Representación de volumen de la corteza somatosensorial de un ratón. El marcador sináptico sinapsina se ha inmunomarcado, lo que permite ver las neuronas individuales de conexión de sinapsina puncta marcadas en verde. Las sinapsis individuales se representaron en colores aleatorios. (B) Reconstrucción de dos axones de Drosophila que muestra la ubicación de las conexiones sinápticas (parches oscuros). El color se usa para distinguir las dos celdas. La línea oscura es el límite entre los dos músculos que están en contacto con los axones. (A adaptado de D. Kleinfeld et al., J. Neurosci., 31: 16215, 2011 B adaptado de S. O. Rizzoli y W. J. Betz, Nat. Rev. Neuroscience, 6:57, 2005.)

Desarrollos experimentales recientes han hecho posible volver a visitar estimaciones de orden de magnitud como las que se dan arriba basadas en representaciones de volumen de sinapsis como las que se muestran en la Figura 3. Con base en tales experimentos, hemos comenzado a obtener una vista estructural multiescala de las conexiones entre diferentes neuronas. Además, estos mapas proporcionan una visión cada vez más específica de la diversidad química que se encuentra en las sinapsis. Es decir, dependiendo de qué tipo de célula específico se esté considerando, el complemento de proteínas presentes en la región de sinapsis será diferente. A escala de sinapsis individuales, ahora se dispone de una vista de cerca de la caja de aproximadamente 1 μm en la que encajan la mayoría de las sinapsis. Tanto la microscopía electrónica clásica como sus extensiones tomográficas tridimensionales pintan un hermoso cuadro de sinapsis con su complemento de vesículas sinápticas. Utilizando técnicas tomográficas y una combinación de microscopía óptica y electrónica, los científicos han trazado la rica red de conexiones entre neuronas, incluidos sus complementos de vesículas sinápticas. Las figuras 1 y 2 muestran varias vistas diferentes de las distribuciones de estas sinapsis del tamaño de una micra en neuronas individuales. De hecho, la Figura 2C ofrece una imagen cuantitativa precisa del rango de tamaños sinápticos en el cerebro. Para tener una idea de la escala, se invita al lector a recordar el tamaño de una bacteria con su volumen de ≈1 μm 3, lo que significa que cada una de estas sinapsis es aproximadamente del tamaño de una bacteria (BNID 111086).

Para comprender mejor la conexión íntima entre estructura y función en las células del sistema nervioso, considere los procesos que tienen lugar cuando leemos un libro. Primero, los fotones reflejados desde la página son absorbidos por la rodopsina en los fotorreceptores de nuestros ojos. Esta absorción de fotones da como resultado una cascada de señales en el fotorreceptor de la retina, que culmina con la liberación de neurotransmisores en la sinapsis. Específicamente, las vesículas sinápticas se fusionan con la membrana de la célula presináptica como se muestra en las Figuras 1C y 2A (aunque la imagen de microscopía en la Figura 1 muestra una unión neuromuscular y no la sinapsis de un fotorreceptor) y liberan 10 3-10 4 neurotransmisores moléculas de cada vesícula (BNID 108622, 108623, 102777). Common neurotransmitters are glutamate, used in about 90% of synapses (BNID 108663), as well as acetylcholine and GABA which are packed at a high concentration of 100-200 mM in the synaptic vesicles (BNID 102777). Each vesicle is about 10 -5 μm 3 in volume (BNID 102776), so our rule of thumb that 1 nM concentration in 1 μm 3 is about 1 molecule enables us to verify that there are indeed about 1000 neurotransmitter molecules per vesicle. These molecules then diffuse into the synaptic cleft and bind receptors on the post-synaptic cell surface. The signal propagating to our brain is carried by electric action potentials within neurons and relayed from one neuron to the next by similar synaptic fusion events. Vesicle release is triggered by 10 2 -10 4 Ca 2+ ions (BNID 103549). The energy expended per vesicle release has been estimated to be about 10 5 ATP/vesicle (BNID 108667). Synapses are cleared within about 1 ms preparing the way for future communication. Rapid clearing is essential as neuronal firings can reach rates of over 100 times per second (BNID 107124), though the average firing rate is estimated to be 1-10 Hz in the cortex (BNID 108670). The delay created by the time it take a neurotransmitter to diffuse across the synaptic cleft (not drawn to scale in the schematic of Figure 1) is part of the response time of humans to any reflex or neural action of any sort. Conveniently, it takes less than 1 ms to traverse the 20-40 nm synaptic divide (BNID 100721, 108451) as the reader can easily verify after reading the vignette on “What are the time scales for diffusion in cells?”. Interestingly, this can be compared to the time it takes for the action potential to propagate down a nerve which is on the ms time scales as discussed in the vignette on “How fast are electrical signals propagated in cells?”.


Brain needs perfection in synapse number

Like Goldilocks, the brain seeks proportions that are just right.

The proper number of synapses or communication between nerve cells, determined early in life, is crucial to having a healthy brain that can learn and retain information.

Now, researchers at Baylor College of Medicine in Houston have determined that the protein MeCP2 (methyl-CpG binding protein 2), is critical to fine-tuning the number of synapses. In a report that appears in today's issue of the journal Neuron, they said that too little MeCP2, as in the neurodevelopmental disorder Rett syndrome, or too much MeCP2, can result in mental retardation, problems with gait or spasticity and symptoms of autism.

In fact, a common underlying theme in the autism spectrum disorders could be a disruption in neuron-to-neuron communication caused by abnormal amounts of MeCP2, said Hsiao-Tuan Chao, an M.D./Ph.D. graduate student, who worked under the co-mentorship of BCM investigators Drs. Huda Y. Zoghbi and Christian Rosenmund and is first author of the report. Zoghbi is a professor of molecular and human genetics, pediatrics, neurology and neuroscience at BCM and a Howard Hughes Medical Institute investigator, and Rosenmund is an associate professor of molecular and human genetics and neuroscience.

As infants, girls with Rett syndrome seem normal for at least six months. Between the ages of 6 and 18 months, however, their development stops and they begin to regress, losing the ability to talk. Then they begin to have problems walking and keeping their balance and develop typical hand-wringing behavior. Many of their symptoms mirror those of autism. Zoghbi's laboratory was the first to identify a mutation in the MeCP2 gene that results in too little of this protein, causing girls to develop Rett. Boys who suffer from a disorder linked to too much MeCP2 have spasticity and mental retardation with autism-like behavior.

"MeCP2 has an important role in fine-tuning the amount of synaptic responses," said Chao. Having just the right amount of MeCP2 and the right number of synapses drives healthy brain development.

"Starting life with the right amount of synapses is critical," said Zoghbi. "What determines that and how do we know that we have the right number?"

Chao unraveled that mystery using two different sets of mice - one with too little MeCP2 and one with too much - and asking what was wrong with their neurons.

"We wanted to know if there were changes within the neuron itself or is this a question of the overall network and the way the neurons communicate?" she said.

In Rosenmund's laboratory, she was able to use his assays to look at synaptic communication in individual neurons to find out that loss of MeCP2 caused the neurons to "talk on a lower level, releasing less neurotransmitter per neuron," she said. On the contrary, doubling MeCP2 caused the opposite, an increase in communication between neurons or synapses. Most importantly, she found that synapses were functioning normally, but that too little MeCP2 meant that fewer synapses were formed, while too much MeCP2 meant too many synapses were formed.

"The beauty of this result is that this critical process in the development of synaptic connectivity in the brain is tightly regulated by the amount of MeCP2," said Rosenmund. "It is one of the strongest pieces of evidence that mental retardation and autism-like diseases originate with problems in synapse formation."

Chao said, "It suggests that the pathways in which MeCP2 is involved and the proteins it regulates are probably critical for how the brain can determine how many synapses to make as it's developing."

"This determination of how many synapses to make happens early in life," said Zoghbi. "If it's not right, then the brain undergoes secondary changes to try to compensate. This is a big important observation and opens up ways to think about adult diseases that involve loss of synaptic function. It is also interesting that patients who lack this protein or have too much have features of autism. More and more, data point to the possiblity that autism is a disorder of abnormal function of the synapse."

"This is important because this is the basic foundation for how we refine our learning," Chao said. "Understanding how MeCP2 is involved in our neurological development is another piece of the puzzle in understanding autism and other neurological disorders."

Funding for this work came from the National Institutes of Health, the Simons Foundation, the Mental Retardation Developmental Disorders Research Center, The International Rett Syndrome Foundation, Baylor Research Advocates for Student Sciences (BRASS) and the M.D./Ph.D. McNair Fellowship.

Descargo de responsabilidad: AAAS y EurekAlert! no son responsables de la precisión de los comunicados de prensa publicados en EurekAlert. por las instituciones contribuyentes o para el uso de cualquier información a través del sistema EurekAlert.


Measuring Neuronal Activity, Synaptic Integration/threshold .

What decides when/if an action potential will be fired?

type/number of upstream Synapses

strength of upstream Synapses

distance between synapse and cell body

timing of firing of each upstream synapse

What happens if the distance between the synapse and cell body grow longer?

the signal is lost, weakened

firing of multiple post synaptic potentials from different inputs occurring at the same time and together affecting the polarization of the cell body

post synaptic potentials that occur in very rapid succession (within 15 msec) and added together and affecting the polarization

How do sharp electrodes work?

it sends a sharp electrode through the membrane into cellular membrane space that extends to dendrites

Difference between sharp electrodes and patch clamp

sharp electrode considers combination of channels and the resulting action pontential. patch clamp can consider a single channel

How do patch clamping work?

it using polished glass to suck up part of the cell membrane

What two techniques are used to measure neuronal activity?

Patch clamping and sharp electrode

How can the measuring techniques personally affect the neuron?

sharp electrode can start an artificial stimulus and patch clamping can changed the neurons voltage


Why Is the Human Brain So Efficient?

T he brain is complex in humans it consists of about 100 billion neurons, making on the order of 100 trillion connections. It is often compared with another complex system that has enormous problem-solving power: the digital computer. Both the brain and the computer contain a large number of elementary units—neurons and transistors, respectively—that are wired into complex circuits to process information conveyed by electrical signals. At a global level, the architectures of the brain and the computer resemble each other, consisting of largely separate circuits for input, output, central processing, and memory. 1

Which has more problem-solving power—the brain or the computer? Given the rapid advances in computer technology in the past decades, you might think that the computer has the edge. Indeed, computers have been built and programmed to defeat human masters in complex games, such as chess in the 1990s and recently Go, as well as encyclopedic knowledge contests, such as the TV show ¡Peligro! As of this writing, however, humans triumph over computers in numerous real-world tasks—ranging from identifying a bicycle or a particular pedestrian on a crowded city street to reaching for a cup of tea and moving it smoothly to one’s lips—let alone conceptualization and creativity.

So why is the computer good at certain tasks whereas the brain is better at others? Comparing the computer and the brain has been instructive to both computer engineers and neuroscientists. This comparison started at the dawn of the modern computer era, in a small but profound book entitled The Computer and the Brain, by John von Neumann, a polymath who in the 1940s pioneered the design of a computer architecture that is still the basis of most modern computers today. 2 Let’s look at some of these comparisons in numbers (Table 1).

The computer has huge advantages over the brain in the speed of basic operations. 3 Personal computers nowadays can perform elementary arithmetic operations, such as addition, at a speed of 10 billion operations per second. We can estimate the speed of elementary operations in the brain by the elementary processes through which neurons transmit information and communicate with each other. For example, neurons “fire” action potentials—spikes of electrical signals initiated near the neuronal cell bodies and transmitted down their long extensions called axons, which link with their downstream partner neurons. Information is encoded in the frequency and timing of these spikes. The highest frequency of neuronal firing is about 1,000 spikes per second. As another example, neurons transmit information to their partner neurons mostly by releasing chemical neurotransmitters at specialized structures at axon terminals called synapses, and their partner neurons convert the binding of neurotransmitters back to electrical signals in a process called synaptic transmission. The fastest synaptic transmission takes about 1 millisecond. Thus both in terms of spikes and synaptic transmission, the brain can perform at most about a thousand basic operations per second, or 10 million times slower than the computer. 4

The computer also has huge advantages over the brain in the precision of basic operations. The computer can represent quantities (numbers) with any desired precision according to the bits (binary digits, or 0s and 1s) assigned to each number. For instance, a 32-bit number has a precision of 1 in 232 or 4.2 billion. Empirical evidence suggests that most quantities in the nervous system (for instance, the firing frequency of neurons, which is often used to represent the intensity of stimuli) have variability of a few percent due to biological noise, or a precision of 1 in 100 at best, which is millionsfold worse than a computer. 5

A pro tennis player can follow the trajectory of a ball served at a speed up to 160 mph.

The calculations performed by the brain, however, are neither slow nor imprecise. For example, a professional tennis player can follow the trajectory of a tennis ball after it is served at a speed as high as 160 miles per hour, move to the optimal spot on the court, position his or her arm, and swing the racket to return the ball in the opponent’s court, all within a few hundred milliseconds. Moreover, the brain can accomplish all these tasks (with the help of the body it controls) with power consumption about tenfold less than a personal computer. How does the brain achieve that? An important difference between the computer and the brain is the mode by which information is processed within each system. Computer tasks are performed largely in serial steps. This can be seen by the way engineers program computers by creating a sequential flow of instructions. For this sequential cascade of operations, high precision is necessary at each step, as errors accumulate and amplify in successive steps. The brain also uses serial steps for information processing. In the tennis return example, information flows from the eye to the brain and then to the spinal cord to control muscle contraction in the legs, trunk, arms, and wrist.

But the brain also employs massively parallel processing, taking advantage of the large number of neurons and large number of connections each neuron makes. For instance, the moving tennis ball activates many cells in the retina called photoreceptors, whose job is to convert light into electrical signals. These signals are then transmitted to many different kinds of neurons in the retina in parallel. By the time signals originating in the photoreceptor cells have passed through two to three synaptic connections in the retina, information regarding the location, direction, and speed of the ball has been extracted by parallel neuronal circuits and is transmitted in parallel to the brain. Likewise, the motor cortex (part of the cerebral cortex that is responsible for volitional motor control) sends commands in parallel to control muscle contraction in the legs, the trunk, the arms, and the wrist, such that the body and the arms are simultaneously well positioned to receiving the incoming ball.

Dreaming Is Like Taking LSD

By Antonio Zadra & Robert Stickgold

Without a doubt, the biggest questions about dreaming are all variants on this question: Why do we dream? We began studying dreaming in the early 1990s and, between the two of us, have published over 200 scientific papers on sleep. LEE MAS

This massively parallel strategy is possible because each neuron collects inputs from and sends output to many other neurons—on the order of 1,000 on average for both input and output for a mammalian neuron. (By contrast, each transistor has only three nodes for input and output all together.) Information from a single neuron can be delivered to many parallel downstream pathways. At the same time, many neurons that process the same information can pool their inputs to the same downstream neuron. This latter property is particularly useful for enhancing the precision of information processing. For example, information represented by an individual neuron may be noisy (say, with a precision of 1 in 100). By taking the average of input from 100 neurons carrying the same information, the common downstream partner neuron can represent the information with much higher precision (about 1 in 1,000 in this case). 6

The computer and the brain also have similarities and differences in the signaling mode of their elementary units. The transistor employs digital signaling, which uses discrete values (0s and 1s) to represent information. The spike in neuronal axons is also a digital signal since the neuron either fires or does not fire a spike at any given time, and when it fires, all spikes are approximately the same size and shape this property contributes to reliable long-distance spike propagation. However, neurons also utilize analog signaling, which uses continuous values to represent information. Some neurons (like most neurons in our retina) are nonspiking, and their output is transmitted by graded electrical signals (which, unlike spikes, can vary continuously in size) that can transmit more information than can spikes. The receiving end of neurons (reception typically occurs in the dendrites) also uses analog signaling to integrate up to thousands of inputs, enabling the dendrites to perform complex computations. 7

Your brain is 10 million times slower than a computer.

Another salient property of the brain, which is clearly at play in the return of service example from tennis, is that the connection strengths between neurons can be modified in response to activity and experience—a process that is widely believed by neuroscientists to be the basis for learning and memory. Repetitive training enables the neuronal circuits to become better configured for the tasks being performed, resulting in greatly improved speed and precision.

Over the past decades, engineers have taken inspiration from the brain to improve computer design. The principles of parallel processing and use-dependent modification of connection strength have both been incorporated into modern computers. For example, increased parallelism, such as the use of multiple processors (cores) in a single computer, is a current trend in computer design. As another example, “deep learning” in the discipline of machine learning and artificial intelligence, which has enjoyed great success in recent years and accounts for rapid advances in object and speech recognition in computers and mobile devices, was inspired by findings of the mammalian visual system. 8 As in the mammalian visual system, deep learning employs multiple layers to represent increasingly abstract features (e.g., of visual object or speech), and the weights of connections between different layers are adjusted through learning rather than designed by engineers. These recent advances have expanded the repertoire of tasks the computer is capable of performing. Still, the brain has superior flexibility, generalizability, and learning capability than the state-of-the-art computer. As neuroscientists uncover more secrets about the brain (increasingly aided by the use of computers), engineers can take more inspiration from the working of the brain to further improve the architecture and performance of computers. Whichever emerges as the winner for particular tasks, these interdisciplinary cross-fertilizations will undoubtedly advance both neuroscience and computer engineering.

Liqun Luo is a professor in the School of Humanities and Sciences, and professor, by courtesy, of neurobiology, at Stanford University.

The author wishes to thank Ethan Richman and Jing Xiong for critiques and David Linden for expert editing.

By Liqun Luo, as published in Think Tank: Forty Scientists Explore the Biological Roots of Human Experience, edited by David J. Linden, and published by Yale University Press.

1. This essay was adapted from a section in the introductory chapter of Luo, L. Principles of Neurobiology (Garland Science, New York, NY, 2015), with permission.

2. von Neumann, J. The Computer and the Brain (Yale University Press, New Haven, CT, 2012), 3rd ed.

3. Patterson, D.A. & Hennessy, J.L. Computer Organization and Design (Elsevier, Amsterdam, 2012), 4th ed.

4. The assumption here is that arithmetic operations must convert inputs into outputs, so the speed is limited by basic operations of neuronal communication such as action potentials and synaptic transmission. There are exceptions to these limitations. For example, nonspiking neurons with electrical synapses (connections between neurons without the use of chemical neurotransmitters) can in principle transmit information faster than the approximately one millisecond limit so can events occurring locally in dendrites.

5. Noise can reflect the fact that many neurobiological processes, such as neurotransmitter release, are probabilistic. For example, the same neuron may not produce identical spike patterns in response to identical stimuli in repeated trials.

6. Suppose that the standard deviation of mean (σmean) for each input approximates noise (it reflects how wide the distribution is, in the same unit as the mean). For the average of norte independent inputs, the expected standard deviation of means is σmean = σ / √•norte. In our example, σ = 0.01, and norte = 100 thus σmean = 0.001.

7. For example, dendrites can act as coincidence detectors to sum near synchronous excitatory input from many different upstream neurons. They can also subtract inhibitory input from excitatory input. The presence of voltage-gated ion channels in certain dendrites enables them to exhibit “nonlinear” properties, such as amplification of electrical signals beyond simple addition.

8. LeCun, Y. Bengio, Y., & Hinton, G. Deep learning. Naturaleza 521, 436–444 (2015).


Ver el vídeo: proceso sináptico (Junio 2022).


Comentarios:

  1. Wessley

    En ella algo es. Antes pensaba diferente, muchas gracias por la información.

  2. Mogis

    Voluntariamente acepto. La pregunta es interesante, yo también participaré en la discusión.

  3. Regenweald

    Gracias por el material útil. Marcado en su blog.

  4. Kiernan

    Creo que estás cometiendo un error. Propongo discutirlo. Envíame un correo electrónico a PM, hablaremos.



Escribe un mensaje