Información

¿Cuáles son las limitaciones al desarrollar un cerebro artificial?

¿Cuáles son las limitaciones al desarrollar un cerebro artificial?



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

¿Existen experimentos sobre el cultivo de cerebros artificiales a partir de tejido cerebral?

¿Cuáles son las limitaciones? ¿Tal tejido desarrollado a una masa mayor que la del cerebro humano la superará en intelecto o necesitaría condiciones adicionales?


Los comentarios anteriores son bastante relevantes: estamos a años / décadas de desarrollar cerebros funcionales en el laboratorio, por lo que probablemente haya innumerables limitaciones en las que probablemente ni siquiera hayamos pensado todavía.

Dicho esto, este artículo puede resultarle interesante: "Control de vuelo adaptativo con redes neuronales vivas en matrices de microelectrodos" [1]. Los autores pueden cultivar con éxito neuronas de rata e interactuar eléctricamente con ellas para controlar el cabeceo y la guiñada en el software de simulación de vuelo XPlane. Es un sistema muy burdo en comparación con un cerebro real, pero es capaz de utilizar con éxito las células como redes neuronales vivas rudimentarias. Si considera que este es un "cerebro artificial" exitoso, entonces sus limitaciones son todas las asociadas con el cultivo de neuronas.

[1] DeMarse, et. al 2005


Los 9 principales problemas éticos de la inteligencia artificial

Optimizar la logística, detectar fraudes, componer arte, realizar investigaciones, proporcionar traducciones: los sistemas de máquinas inteligentes están transformando nuestras vidas para mejor. A medida que estos sistemas se vuelven más capaces, nuestro mundo se vuelve más eficiente y, en consecuencia, más rico.

Gigantes de la tecnología como Alphabet, Amazon, Facebook, IBM y Microsoft, así como personas como Stephen Hawking y Elon Musk, creen que ahora es el momento adecuado para hablar sobre el panorama casi ilimitado de la inteligencia artificial. En muchos sentidos, esta es una nueva frontera tanto para la ética y la evaluación de riesgos como para la tecnología emergente. Entonces, ¿qué problemas y conversaciones mantienen despiertos a los expertos en IA por la noche?

1. Desempleo. ¿Qué sucede después de la finalización de los trabajos?

La jerarquía del trabajo se ocupa principalmente de la automatización. A medida que inventamos formas de automatizar los trabajos, pudimos crear espacio para que las personas asuman roles más complejos, pasando del trabajo físico que dominaba el mundo preindustrial al trabajo cognitivo que caracteriza el trabajo estratégico y administrativo en nuestra sociedad globalizada.

Mire el transporte por carretera: actualmente emplea a millones de personas solo en los Estados Unidos. ¿Qué pasará con ellos si los camiones autónomos prometidos por Elon Musk de Tesla se vuelven ampliamente disponibles en la próxima década? Pero, por otro lado, si consideramos el menor riesgo de accidentes, los camiones autónomos parecen una opción ética. El mismo escenario podría suceder con los trabajadores de oficina, así como con la mayoría de la fuerza laboral en los países desarrollados.

¿Has leído?

Aquí es donde llegamos a la pregunta de cómo vamos a gastar nuestro tiempo. La mayoría de las personas todavía dependen de la venta de su tiempo para tener ingresos suficientes para mantenerse a sí mismos y a sus familias. Solo podemos esperar que esta oportunidad permita a las personas encontrar significado en actividades no laborales, como cuidar a sus familias, involucrarse con sus comunidades y aprender nuevas formas de contribuir a la sociedad humana.

Si tenemos éxito con la transición, un día podríamos mirar atrás y pensar que fue una barbarie que los seres humanos tuvieran que vender la mayor parte de su tiempo de vigilia solo para poder vivir.

2. Desigualdad. ¿Cómo distribuimos la riqueza creada por las máquinas?

Nuestro sistema económico se basa en una compensación por la contribución a la economía, que a menudo se evalúa mediante un salario por hora. La mayoría de las empresas todavía dependen del trabajo por horas cuando se trata de productos y servicios. Pero al usar inteligencia artificial, una empresa puede reducir drásticamente la dependencia de la fuerza laboral humana, y esto significa que los ingresos se destinarán a menos personas. En consecuencia, las personas que tengan la propiedad de empresas impulsadas por la inteligencia artificial ganarán todo el dinero.

Ya estamos viendo una brecha de riqueza cada vez mayor, donde los fundadores de nuevas empresas se llevan a casa una gran parte del excedente económico que crean. En 2014, las tres empresas más grandes de Detroit y las tres empresas más grandes de Silicon Valley generaron aproximadamente los mismos ingresos. solo en Silicon Valley había 10 veces menos empleados.

Si realmente estamos imaginando una sociedad post-trabajo, ¿cómo estructuramos una economía post-laboral justa?

3. Humanidad. ¿Cómo afectan las máquinas a nuestro comportamiento e interacción?

Los bots con inteligencia artificial son cada vez mejores para modelar conversaciones y relaciones humanas. En 2015, un bot llamado Eugene Goostman ganó el Desafío Turing por primera vez. En este desafío, los evaluadores humanos utilizaron la entrada de texto para charlar con una entidad desconocida y luego adivinaron si habían estado charlando con un humano o una máquina. Eugene Goostman engañó a más de la mitad de los evaluadores humanos haciéndoles pensar que habían estado hablando con un ser humano.

Este hito es solo el comienzo de una era en la que frecuentemente interactuaremos con las máquinas como si fueran humanos, ya sea en el servicio al cliente o en ventas. Si bien los humanos están limitados en la atención y la amabilidad que pueden dedicar a otra persona, los bots artificiales pueden canalizar recursos virtualmente ilimitados para construir relaciones.

Aunque no muchos de nosotros somos conscientes de esto, ya somos testigos de cómo las máquinas pueden activar los centros de recompensa en el cerebro humano. Basta con mirar los titulares y los videojuegos con cebo de clics. Estos titulares a menudo se optimizan con pruebas A / B, una forma rudimentaria de optimización algorítmica para que el contenido capte nuestra atención. Este y otros métodos se utilizan para hacer que numerosos videojuegos y juegos móviles se vuelvan adictivos. La adicción a la tecnología es la nueva frontera de la dependencia humana.

Por otro lado, tal vez podamos pensar en un uso diferente para el software, que ya se ha vuelto efectivo para dirigir la atención humana y desencadenar ciertas acciones. Cuando se usa correctamente, esto podría convertirse en una oportunidad para impulsar a la sociedad hacia un comportamiento más beneficioso. Sin embargo, en las manos equivocadas podría resultar perjudicial.

4. Estupidez artificial. ¿Cómo podemos protegernos de los errores?

La inteligencia proviene del aprendizaje, ya seas humano o máquina. Los sistemas suelen tener una fase de formación en la que "aprenden" a detectar los patrones correctos y actuar de acuerdo con sus aportaciones. Una vez que un sistema está completamente entrenado, puede pasar a la fase de prueba, donde se le da más ejemplos y vemos cómo funciona.

Obviamente, la fase de entrenamiento no puede cubrir todos los ejemplos posibles con los que un sistema puede lidiar en el mundo real. Estos sistemas pueden ser engañados de formas en que los humanos no lo harían. Por ejemplo, los patrones de puntos aleatorios pueden llevar a una máquina a "ver" cosas que no existen. Si confiamos en la IA para llevarnos a un nuevo mundo de trabajo, seguridad y eficiencia, debemos asegurarnos de que la máquina funcione según lo planeado y que la gente no pueda dominarla para usarla para sus propios fines.

5. Robots racistas. ¿Cómo eliminamos el sesgo de la IA?

Aunque la inteligencia artificial es capaz de una velocidad y capacidad de procesamiento que supera con creces la de los humanos, no siempre se puede confiar en que sea justa y neutral. Google y su empresa matriz Alphabet son uno de los líderes en lo que respecta a la inteligencia artificial, como se ve en el servicio Fotos de Google, donde la inteligencia artificial se utiliza para identificar personas, objetos y escenas. Pero puede salir mal, como cuando una cámara falló en la sensibilidad racial, o cuando un software utilizado para predecir futuros criminales mostró prejuicios contra las personas negras.

No debemos olvidar que los sistemas de IA son creados por humanos, que pueden ser sesgados y críticos. Una vez más, si se usa correctamente, o si la usan aquellos que luchan por el progreso social, la inteligencia artificial puede convertirse en un catalizador para un cambio positivo.

6. Seguridad. ¿Cómo mantenemos la IA a salvo de los adversarios?

Cuanto más poderosa se vuelve una tecnología, más se puede usar por razones nefastas y buenas. Esto se aplica no solo a los robots producidos para reemplazar a los soldados humanos o armas autónomas, sino a los sistemas de inteligencia artificial que pueden causar daños si se usan de manera maliciosa. Debido a que estas luchas no se librarán solo en el campo de batalla, la ciberseguridad será aún más importante. Después de todo, estamos tratando con un sistema que es más rápido y más capaz que nosotros por órdenes de magnitud.

7. Genios malvados. ¿Cómo nos protegemos de las consecuencias no deseadas?

No solo debemos preocuparnos por los adversarios. ¿Y si la propia inteligencia artificial se volviera contra nosotros? Esto no significa volverse "malvado" como lo haría un ser humano, o como se describen los desastres de la IA en las películas de Hollywood. Más bien, podemos imaginar un sistema de inteligencia artificial avanzado como un "genio en una botella" que puede cumplir deseos, pero con terribles consecuencias imprevistas.

En el caso de una máquina, es poco probable que haya malicia en juego, solo una falta de comprensión del contexto completo en el que se hizo el deseo. Imagine un sistema de inteligencia artificial al que se le pide que erradique el cáncer en el mundo. Después de mucha informática, escupe una fórmula que, de hecho, provoca el fin del cáncer: matando a todos en el planeta. La computadora habría logrado su objetivo de "no más cáncer" de manera muy eficiente, pero no de la forma en que los humanos lo pretendían.

8. Singularidad. ¿Cómo mantenemos el control de un sistema inteligente complejo?

La razón por la que los humanos están en la cima de la cadena alimentaria no se debe a dientes afilados o músculos fuertes. El dominio humano se debe casi por completo a nuestro ingenio e inteligencia. Podemos sacar lo mejor de animales más grandes, más rápidos y más fuertes porque podemos crear y usar herramientas para controlarlos: tanto herramientas físicas como jaulas y armas, como herramientas cognitivas como entrenamiento y acondicionamiento.

Esto plantea una pregunta seria sobre la inteligencia artificial: ¿algún día tendrá la misma ventaja sobre nosotros? Tampoco podemos confiar en simplemente "desconectar", porque una máquina lo suficientemente avanzada puede anticipar este movimiento y defenderse. Esto es lo que algunos llaman la “singularidad”: el momento en el que los seres humanos ya no son los seres más inteligentes de la tierra.

9. Derechos de robot. ¿Cómo definimos el trato humano de la IA?

Si bien los neurocientíficos todavía están trabajando para descubrir los secretos de la experiencia consciente, comprendemos más sobre los mecanismos básicos de recompensa y aversión. Compartimos estos mecanismos incluso con animales simples. En cierto modo, estamos construyendo mecanismos similares de recompensa y aversión en los sistemas de inteligencia artificial. Por ejemplo, el aprendizaje por refuerzo es similar al entrenamiento de un perro: la mejora del rendimiento se refuerza con una recompensa virtual.

En este momento, estos sistemas son bastante superficiales, pero se están volviendo más complejos y realistas. ¿Podríamos considerar que un sistema está sufriendo cuando sus funciones de recompensa le dan una entrada negativa? Es más, los llamados algoritmos genéticos funcionan creando muchas instancias de un sistema a la vez, de las cuales solo las más exitosas "sobreviven" y se combinan para formar la próxima generación de instancias. Esto sucede durante muchas generaciones y es una forma de mejorar un sistema. Las instancias fallidas se eliminan. ¿En qué momento podríamos considerar los algoritmos genéticos como una forma de asesinato en masa?

Una vez que consideramos a las máquinas como entidades que pueden percibir, sentir y actuar, no es un gran salto reflexionar sobre su estatus legal. ¿Deberían ser tratados como animales de inteligencia comparable? ¿Consideraremos el sufrimiento de las máquinas "sensibles"?

Algunas cuestiones éticas se refieren a mitigar el sufrimiento, otras a arriesgarse a obtener resultados negativos. Si bien consideramos estos riesgos, también debemos tener en cuenta que, en general, este progreso tecnológico significa mejores vidas para todos. La inteligencia artificial tiene un gran potencial y su implementación responsable depende de nosotros.


7 formas en que la adversidad infantil cambia el cerebro de un niño

La cantidad de experiencias adversas en la niñez que un individuo había predicho la cantidad de atención médica que necesitaría como adulta con sorprendente precisión:

  • Las personas que se habían enfrentado a 4 o más categorías de ACE tenían el doble de probabilidades de ser diagnosticadas con cáncer que las personas que no habían experimentado adversidades en la infancia.
  • Por cada puntuación ACE que tenía una mujer, su riesgo de ser hospitalizada con una enfermedad autoinmune aumentó en un 20 por ciento.
  • Alguien con una puntuación ACE de 4 tenía un 460 por ciento más de probabilidades de sufrir depresión que alguien con una puntuación ACE de 0.
  • Una puntuación ACE mayor o igual a 6 acorta la esperanza de vida de una persona en casi 20 años.

Puede completar el Cuestionario ACE aquí para obtener más información sobre cómo califica.

El estudio ACE nos dice que experimentar estrés tóxico crónico e impredecible en la infancia nos predispone a una constelación de afecciones crónicas en la edad adulta. ¿Pero por qué? Hoy, en laboratorios de todo el país, los neurocientíficos están escudriñando la conexión cerebro-cuerpo que alguna vez fue inescrutable y analizando, a nivel bioquímico, exactamente cómo el estrés que enfrentamos cuando somos jóvenes nos alcanza cuando somos adultos. alterando nuestros cuerpos, nuestras células e incluso nuestro ADN. Lo que han encontrado puede sorprenderte.

Algunos de estos hallazgos científicos pueden ser un poco abrumadores de contemplar. Nos obligan a dar una nueva mirada a cómo se entrelazan el dolor físico y emocional. (Para obtener más información sobre por qué escribí sobre cómo las ACE pueden cambiar la forma en que vemos las enfermedades y cómo administramos los medicamentos, vea este video).

[En la Parte I de este artículo, hablaremos sobre la ciencia de la adversidad temprana y cómo nos cambia. En la Parte II, hablaremos de todas las formas basadas en la ciencia en las que podemos marcha atrás estos cambios, y volvamos a quienes esperamos ser, así que estad atentos a las buenas noticias.]

1. Cambios epigenéticos

Cuando nos vemos empujados una y otra vez a situaciones que provocan estrés durante la infancia o la adolescencia, nuestra respuesta fisiológica al estrés se acelera y perdemos la capacidad de responder de manera adecuada y eficaz a los factores estresantes futuros, 10, 20, incluso 30 años después. Esto sucede debido a un proceso conocido como metilación de genes, en el que pequeños marcadores químicos, o grupos metilo, se adhieren a los genes involucrados en la regulación de nuestra respuesta al estrés y evitan que estos genes hagan su trabajo. A medida que se altera la función de estos genes, la respuesta al estrés se restablece en "alto" de por vida, lo que promueve la inflamación y la enfermedad.

Esto puede hacernos más propensos a reaccionar de forma exagerada a los factores estresantes cotidianos que encontramos en nuestra vida adulta: una factura inesperada, un desacuerdo con un cónyuge o un automóvil que se desvía frente a nosotros en la carretera y genera más inflamación. Esto, a su vez, nos predispone a una serie de afecciones crónicas, que incluyen enfermedades autoinmunes, enfermedades cardíacas, cáncer y depresión.

De hecho, los investigadores de Yale descubrieron recientemente que los niños que habían enfrentado estrés tóxico crónico mostraban cambios "en todo el genoma", en genes que no solo supervisan la respuesta al estrés, sino también en genes implicados en una amplia gama de enfermedades de adultos. Esta nueva investigación sobre el trauma emocional temprano, los cambios epigenéticos y las enfermedades físicas de los adultos derriba las antiguas barreras entre lo que la comunidad médica ha visto durante mucho tiempo como una enfermedad "física" y lo que es "mental" o "emocional".

2. Tamaño y forma del cerebro

Los científicos han descubierto que cuando el cerebro en desarrollo está estresado crónicamente, libera una hormona que en realidad reduce el tamaño del hipocampo, un área de nuestro cerebro responsable de procesar las emociones y la memoria y controlar el estrés. Estudios recientes de imágenes por resonancia magnética (IRM) sugieren que cuanto más alta es la puntuación ACE de un individuo, menos materia gris tiene en otras áreas clave del cerebro, incluida la corteza prefrontal, un área relacionada con la toma de decisiones y las habilidades de autorregulación. y la amígdala, o centro de procesamiento del miedo. Los niños cuyos cerebros han sido alterados por las experiencias adversas de su niñez tienen más probabilidades de convertirse en adultos que reaccionan de forma exagerada incluso a factores estresantes menores.

3. Poda neuronal

Los niños tienen una sobreabundancia de neuronas y conexiones sinápticas, sus cerebros están trabajando arduamente, tratando de darle sentido al mundo que los rodea. Hasta hace poco, los científicos creían que la eliminación del exceso de neuronas y conexiones se lograba únicamente de una manera de "úselo o piérdalo", pero ha aparecido en escena un nuevo jugador sorprendente en el desarrollo del cerebro. Las células cerebrales no neuronales, conocidas como microglía, que constituyen una décima parte de todas las células del cerebro y en realidad son parte del sistema inmunológico, participan en el proceso de poda. Estas células podan las sinapsis como un jardinero poda un seto. También engullen y digieren células enteras y desechos celulares, por lo que desempeñan un papel esencial en la limpieza.

Pero cuando un niño enfrenta un estrés crónico impredecible debido a experiencias adversas en la niñez, las células microgliales "pueden ponerse realmente nerviosas y producir neuroquímicos que conducen a la neuroinflamación", dice la Dra. Margaret McCarthy, cuyo equipo de investigación en el Centro Médico de la Universidad de Maryland estudia el desarrollo cerebro. "Este estado de neuroinflamación crónica por debajo del radar puede conducir a cambios que restablecen el tono del cerebro de por vida".

Eso significa que los niños que llegan a la adolescencia con un historial de adversidad y carecen de la presencia de un adulto amoroso y constante que los ayude a superarla pueden tener más probabilidades de desarrollar trastornos del estado de ánimo o tener un funcionamiento ejecutivo y una capacidad de toma de decisiones deficientes.

4. Telómeros

El trauma temprano puede hacer que los niños parezcan "mayores" emocionalmente que sus compañeros. Ahora, los científicos de la Universidad de Duke, la Universidad de California, San Francisco y la Universidad de Brown han descubierto que las experiencias adversas de la infancia también pueden envejecer prematuramente a los niños a nivel celular. Los adultos que se han enfrentado a un trauma temprano muestran una mayor erosión en lo que se conoce como telómeros, las tapas protectoras que se colocan en los extremos de las hebras de ADN, como las tapas de los cordones de los zapatos, para mantener el genoma sano e intacto. A medida que nuestros telómeros se erosionan, es más probable que desarrollemos enfermedades y nuestras células envejecen más rápido.


Se ha creado una memoria artificial exitosa

Aprendemos de nuestra interacción personal con el mundo y nuestros recuerdos de esas experiencias ayudan a guiar nuestro comportamiento. La experiencia y la memoria están inexorablemente vinculadas, o al menos parecían estarlo antes de un informe reciente sobre la formación de memorias completamente artificiales. Utilizando animales de laboratorio, los investigadores realizaron ingeniería inversa de una memoria natural específica mapeando los circuitos cerebrales subyacentes a su formación. Luego “entrenaron” a otro animal estimulando las células cerebrales en el patrón de la memoria natural. Al hacerlo, se creó una memoria artificial que se retuvo y recordó de una manera indistinguible de la natural.

Los recuerdos son esenciales para el sentido de identidad que surge de la narrativa de la experiencia personal. Este estudio es notable porque demuestra que al manipular circuitos específicos en el cerebro, los recuerdos pueden separarse de esa narrativa y formarse en ausencia total de experiencia real. El trabajo muestra que los circuitos cerebrales que normalmente responden a experiencias específicas se pueden estimular y vincular artificialmente en una memoria artificial. Esa memoria puede ser provocada por las señales sensoriales apropiadas en el entorno real. La investigación proporciona una comprensión fundamental de cómo se forman los recuerdos en el cerebro y es parte de una ciencia floreciente de la manipulación de la memoria que incluye la transferencia, la mejora protésica y el borrado de la memoria. Estos esfuerzos podrían tener un impacto tremendo en una amplia gama de individuos, desde aquellos que luchan con problemas de memoria hasta aquellos que soportan recuerdos traumáticos, y también tienen amplias implicaciones sociales y éticas.

En el estudio reciente, la memoria natural se formó al entrenar a ratones para que asociaran un olor específico (flores de cerezo) con un golpe en el pie, que aprendieron a evitar pasando una cámara de prueba rectangular a otro extremo que estaba infundido con un olor diferente ( alcaravea). El aroma de la alcaravea proviene de una sustancia química llamada carvona, mientras que la esencia de la flor de cerezo proviene de otra sustancia química, la acetofenona. Los investigadores encontraron que la acetofenona activa un tipo específico de receptor en un tipo discreto de célula nerviosa sensorial olfativa.

Luego recurrieron a una técnica sofisticada, la optogenética, para activar esas células nerviosas olfativas. Con la optogenética, las proteínas sensibles a la luz se utilizan para estimular neuronas específicas en respuesta a la luz enviada al cerebro a través de fibras ópticas implantadas quirúrgicamente. En sus primeros experimentos, los investigadores utilizaron animales transgénicos que solo producían la proteína en nervios olfativos sensibles a la acetofenona. Al combinar la descarga eléctrica del pie con la estimulación de luz optogenética de los nervios olfativos sensibles a la acetofenona, los investigadores enseñaron a los animales a asociar la descarga con la actividad de estos nervios sensoriales específicos sensibles a la acetofenona. Al combinar la descarga eléctrica del pie con la estimulación de luz optogenética de los nervios olfativos sensibles a la acetofenona, los investigadores enseñaron a los animales a asociar los dos. Cuando más tarde probaron a los ratones, evitaron el olor a flor de cerezo.

Estos primeros pasos mostraron que los animales no necesitaban experimentar el olor para recordar una conexión entre ese olor y un golpe nocivo en el pie. Pero este no era un recuerdo completamente artificial, porque el impacto aún era bastante real. Para construir una memoria completamente artificial, los científicos necesitaban estimular el cerebro de tal manera que también imitara la actividad nerviosa causada por el choque del pie.

Estudios anteriores habían demostrado que las vías nerviosas específicas que conducen a una estructura conocida como área tegmental ventral (VTA) eran importantes para la naturaleza aversiva del choque del pie. Para crear una memoria verdaderamente artificial, los investigadores necesitaban estimular el VTA de la misma manera que estimulaban los nervios sensoriales olfativos, pero los animales transgénicos solo producían proteínas sensibles a la luz en esos nervios. Para utilizar la estimulación optogenética, estimularon los nervios olfativos en los mismos ratones modificados genéticamente y también emplearon un virus para colocar proteínas sensibles a la luz en el VTA. Estimularon los receptores olfativos con luz para simular el olor de las flores de cerezo, luego estimularon el VTA para imitar el choque aversivo del pie. Los animales recordaron la memoria artificial, respondiendo a un olor que nunca habían encontrado evitando un impacto que nunca habían recibido.

Durante mucho tiempo, ha sido un misterio cómo se forman los recuerdos en el cerebro y qué cambios físicos en el cerebro acompañan a su formación. En este estudio, la estimulación eléctrica de regiones cerebrales específicas que condujeron a una nueva memoria también activó otras regiones cerebrales que se sabe están involucradas en la formación de la memoria, incluida un área llamada amígdala basolateral. Debido a que las células nerviosas se comunican entre sí a través de uniones llamadas sinapsis, se ha asumido que los cambios en la actividad sináptica explican la formación de recuerdos. En animales simples, como la babosa de mar Aplysia, los recuerdos se pueden transferir de un individuo a otro utilizando ARN extraído de quien los experimentó. El ARN contiene los códigos de las proteínas elaboradas en los nervios del animal asociados con la memoria. Los recuerdos se han transferido parcialmente en roedores mediante el uso de registros de la actividad eléctrica de un animal entrenado y el centro de memoria rsquos (el hipocampo) para estimular patrones similares de actividad nerviosa en un animal receptor. Este proceso es similar al nuevo informe que se describe aquí, en el sentido de que se utiliza la estimulación de la actividad eléctrica de circuitos neuronales específicos para provocar un recuerdo. En el caso de la transferencia de memoria, ese patrón provino de animales entrenados, mientras que en el estudio de optogenética, el patrón de actividad eléctrica asociado con la memoria se construyó de novo dentro del cerebro del ratón. Este es el primer informe de una memoria completamente artificial y ayuda a establecer una comprensión fundamental de cómo se pueden manipular los recuerdos.

La investigación sobre la memoria y los esfuerzos para manipularla han progresado a un ritmo rápido. Una & ldquomemory prótesis & rdquo diseñada para mejorar su formación y recuperación mediante la estimulación eléctrica del centro de memoria en el cerebro humano se ha desarrollado con el apoyo de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA). En contraste, el borrado de la memoria usando lo que se ha apodado el Sol eterno fármaco (péptido inhibidor zeta o ZIP) y mdashafter Eterno resplandor de una mente impecable, una película de Hollywood con un tema mnemónico y mdashis se está desarrollando para tratar los recuerdos de dolor crónico.

Hay motivos legítimos subyacentes a estos esfuerzos. La memoria ha sido llamada "el escriba del alma" y es la fuente de la historia personal de uno. Algunas personas pueden buscar recuperar recuerdos perdidos o parcialmente perdidos. Otros, como los que padecen un trastorno de estrés postraumático o dolor crónico, pueden buscar alivio de los recuerdos traumáticos tratando de borrarlos.

Los métodos utilizados aquí para crear recuerdos artificiales no se emplearán en humanos en el corto plazo: ninguno de nosotros es transgénico como los animales utilizados en el experimento, ni es probable que aceptemos múltiples cables de fibra óptica implantados e inyecciones virales. Sin embargo, a medida que evolucionan las tecnologías y las estrategias, la posibilidad de manipular la memoria humana se vuelve aún más real. Y la participación de agencias militares como DARPA siempre hace que las motivaciones detrás de estos esfuerzos sean sospechosas. ¿Hay cosas de las que todos debemos tener miedo o que debemos o no debemos hacer? Las posibilidades distópicas son obvias.

La creación de recuerdos artificiales nos acerca a aprender cómo se forman los recuerdos y, en última instancia, podría ayudarnos a comprender y tratar enfermedades espantosas como el Alzheimer y los rsquos. Los recuerdos, sin embargo, cortan el núcleo de nuestra humanidad, y debemos estar atentos para que cualquier manipulación se aborde de manera ética.


Los modelos de plasticidad sináptica no supervisada, basada en correlación (hebbiana) son típicamente inestables: o todas las sinapsis crecen hasta que cada una alcanza la fuerza máxima permitida, o todas las sinapsis disminuyen a fuerza cero. Un método común para evitar estos resultados es utilizar una restricción que conserve o limite la fuerza sináptica total sobre una célula. Estudiamos los efectos dinámicos de tales limitaciones.

Se distinguen dos métodos para hacer cumplir una restricción, multiplicativo y sustractivo. Para reglas de aprendizaje que de otro modo serían lineales, la aplicación multiplicativa de una restricción da como resultado una dinámica que converge al vector propio principal del operador que determina el desarrollo sináptico sin restricciones. La aplicación sustractiva, por el contrario, conduce típicamente a un estado final en el que casi todas las fuerzas sinápticas alcanzan el valor máximo o mínimo permitido. Este estado final a menudo está dominado por configuraciones de peso distintas del vector propio principal del operador no restringido. La aplicación multiplicativa produce un campo receptivo "graduado" en el que se representan la mayoría de las entradas correlacionadas entre sí, mientras que la aplicación sustractiva produce un campo receptivo que se "agudiza" a un subconjunto de entradas correlacionadas al máximo. Si dos poblaciones de insumos equivalentes (por ejemplo, dos ojos) inervan un objetivo común, la aplicación multiplicativa evita su segregación (segregación por dominancia ocular) cuando las dos poblaciones están débilmente correlacionadas, mientras que la aplicación sustractiva permite la segregación en estas circunstancias.

Estos resultados se pueden utilizar para comprender las limitaciones tanto de las celdas de salida como de las de entrada. Se discuten una variedad de reglas que pueden implementar dinámicas restringidas.


Promesas y retos

Los nervios sensoriales artificiales que pueden sentir presión e interactuar con los músculos biológicos representan un paso importante para ayudar a las personas que viven con prótesis a recuperar las sensaciones perdidas. Es posible que algún día le den a los robots la piel artificial que puede detectar y responder al medio ambiente. En su estado actual, sin embargo, el nervio artificial todavía está lejos de tener todas las sensaciones de la piel real. Específicamente, el nervio artificial actual solo puede generar señales similares a las neuronas en respuesta a la presión, mientras que la piel real también puede sentir vibración, textura, temperatura, dolor y picazón. Además, queda por ver si el cerebro humano puede procesar las señales de los nervios artificiales, que es la clave para restaurar las sensaciones perdidas del tacto. El desarrollo futuro de esta técnica tiene como objetivo incorporar diferentes tipos de sensores y explorar la interfaz del cerebro humano, quizás eventualmente llevando a los cyborgs a la vida real.


Tamaño y valor del mercado de biología sintética

El mercado de biología sintética está valorado en USD 3,99 mil millones en 2018 y se espera que alcance los USD 23,98 mil millones en 2025 con una tasa compuesta anual de 29,2% durante el período de pronóstico.

La biología sintética es un campo de la ciencia que consiste en el rediseño de organismos con fines útiles con la ayuda de técnicas de ingeniería para desarrollar nuevas habilidades. La biología sintética es la forma de aprovechar el poder de la naturaleza para resolver problemas en la medicina, la manufactura y la agricultura para investigadores y empresas de todo el mundo. Microorganismos aprovechados para la biorremediación para limpiar contaminantes de nuestra agua, suelo y aire.

La rama de la ciencia que abarca una amplia gama de metodologías de diversos sectores que incluyen biotecnología, ingeniería informática, control e ingeniería biológica, ingeniería genética, biología molecular, ingeniería molecular, biología de sistemas, ciencia de membranas, biofísica y biología evolutiva. En biología sintética, los científicos y los médicos unen largos tramos de ADN y se insertan en el genoma de un organismo. Mientras cosen, los científicos suelen utilizar herramientas para realizar cambios más pequeños en el propio ADN del organismo. Las herramientas de edición del genoma también se pueden usar para eliminar y agregar pequeños tramos de ADN. La levadura elaborada por biología sintética se puede diseñar para producir aceite de rosa como un sustituto sostenible y ecológico de las rosas reales que los perfumistas utilizan para crear aromas de lujo mientras fabrican perfumes naturales.

El mercado global de biología sintética está segmentado según el tipo de producto, la tecnología, la aplicación y la región. Según el tipo de producto, el mercado global de biología sintética se segmenta en genes sintéticos, oligonucleótidos, herramientas de software, ADN sintético, células sintéticas y organismos de chasis. Basado en la tecnología, el mercado global de biología sintética está segmentado por ingeniería genética, bioinformática, micro fluidos y otros. Según la aplicación, el mercado global de biología sintética está segmentado en productos farmacéuticos y diagnósticos, agricultura, productos químicos, biocombustibles, bioplásticos, atención médica y otros.

Las regiones cubiertas en el informe de mercado global de biología sintética son América del Norte, Europa, Asia-Pacífico y el resto del mundo. Sobre la base del nivel de país, el mercado global de biología sintética se subdivide en EE. UU., México, Canadá, Reino Unido, Francia, Alemania, Italia, China, Japón, India, Sudeste de Asia, CCG, África, etc.


Algunos trabajos de Brain aceptados en NeurIPS, 2019

La mayoría de los métodos de optimización estocástica usan gradientes una vez antes de descartarlos. While variance reduction methods have shown that reusing past gradients can be beneficial when there is a finite number of datapoints, they do not easily extend to the online setting. One issue is the staleness due to using past gradients. We propose to correct this staleness using the idea of

Sebastien Arnold , Pierre-Antoine Manzagol , Reza Babanezhad , Ioannis Mitliagkas , Nicolas Le Roux

NeurIPS 2019 (2019) (to appear)

We study differentially private (DP) algorithms for stochastic convex optimization (SCO). In this problem the goal is to approximately minimize the population loss given i.i.d. samples from a distribution over convex and Lipschitz loss functions. A long line of existing work on private convex optimization focuses on the empirical loss and derives asymptotically tight bounds on the excess.

Raef Bassily , Vitaly Feldman , Kunal Talwar , Abhradeep Guha Thakurta

NeurIPS Spotlight (2019) (to appear)

The goal of this paper is to design image classification systems that, after an initial multi-task training phase, can automatically adapt to new tasks encountered at test time. We introduce a conditional neural process based approach to the multi-task classification setting for this purpose, and establish connections to the meta- and few-shot learning literature. The resulting approach, called.

James Requeima , Jonathan Gordon , John Bronskill , Sebastian Nowozin , Richard E. Turner

NeurIPS Spotlight (2019) (to appear)

Many recent studies have employed task-based modeling with recurrent neural networks (RNNs) to infer the computational function of different brain regions. These models are often assessed by quantitatively comparing the low-dimensional neural dynamics of the model and the brain, for example using canonical correlation analysis (CCA). However, the nature of the detailed neurobiological.

Niru Maheswaranathan , Alex Williams , Matthew Golub , Surya Ganguli , David Sussillo

NeurIPS Spotlight (2019) (to appear)

The generalization and learning speed of a multi-class neural network can often be significantly improved by using soft targets that are a weighted average of the hard targets and the uniform distribution over labels. Smoothing the labels in this way prevents the network from becoming over-confident and label smoothing has been used in many state-of-the-art models, including image.

NeurIPS Spotlight (2019) (to appear)

Sorting is used pervasively in machine learning, either to define elementary algorithms, such as k-nearest neighbors (k-NN) rules, or to define test-time metrics, such as top-k classification accuracy or ranking losses. Sorting is however a poor match for the end-to-end, automatically differentiable pipelines of deep learning. Indeed, sorting procedures output two vectors, neither of which is.

Advances in Neural Information Processing Systems (NeurIPS) 32 , Curran Associates, Inc. (2019) , pp. 6861-6871

In many real-world reinforcement learning applications, access to the environment is limited to a fixed dataset, instead of direct (online) interaction with the environment. When using this data for either evaluation or training of a new policy, accurate estimates of discounted stationary distribution ratios -- correction terms which quantify the likelihood that the new policy will experience a.


Brain and Cognitive Sciences


The human brain is the most complex, sophisticated, and powerful information-processing device known.

To study its complexities, the Department of Brain and Cognitive Sciences at the Massachusetts Institute of Technology combines the experimental technologies of neurobiology, neuroscience, and psychology, with the theoretical power that comes from the fields of computational neuroscience and cognitive science.

The Department was founded by Hans-Lukas Teuber in 1964 as a Department of Psychology, with the then-radical vision that the study of brain and mind are inseparable. Today, at a time of increasing specialization and fragmentation, our goal remains to understand cognition- its processes, and its mechanisms at the level of molecules, neurons, networks of neurons, and cognitive modules. We are unique among neuroscience and cognitive science departments in our breadth, and in the scope of our ambition. We span a very large range of inquiry into the brain and mind, and our work bridges many different levels of analysis including molecular, cellular, systems, computational and cognitive approaches.

Since the field of brain and cognitive sciences is relatively young and extremely dynamic, there is no single text that encompasses the subject matter covered in most of the classes offered by the department. To educate and train future scientists, readings are from primary journal articles or research papers. This approach provides broad coverage, as well as the depth needed, so that students are exposed to cutting-edge knowledge in the various specialties of neuroscience and cognitive science. Browsing the course materials in MIT OpenCourseWare, the jewels are revealed in the detailed reading lists that provide a window on the current thinking in each subject.

Central to our mission is the training of graduate students in the brain and cognitive sciences, and the education of undergraduate students. Our graduate students benefit from the comprehensiveness of our program as well as by conducting research with individual faculty members who are on the cutting edge of their fields. The Department recently expanded its undergraduate program to include both neuroscience and cognitive science and our major is now one of the fastest growing in the institute.

In addition to the Brain and Cognitive Sciences courses listed below, see also OCW&rsquos Supplemental Resources associated with the department.


1. The Past

Google’s Ngram Viewer (Michel et al., 2011) allows users to search the relative frequency of norte-grams (short-words combinations, norte ≤ 5) in time, exploiting the large database of Google Books that includes about 4% of all books ever written. Hiroki Sayama did a search for 𠇊rtificial life” 1 , and the curve showed how the frequency jumps from 1986 and reaches a peak in 1997 before stabilizing. However, there is an even higher peak around 1821. “What were they doing in those days?” Hiroki tweeted. Well, Frankenstein, or The Modern Prometheus by Mary Shelley was published in 1818. That created a wave in literature until the end of the 1820s and had an impact for the rest of the nineteenth century, as people debated on the nature of life in view of the impressive technological and scientific advances of the age. What are the causes and conditions of life? Can we make living creatures?

We know that such questions were asked from the dawn of history. Consider, for instance, the artificial creatures found in the Greek, Mayan, Chinese, and Jewish mythologies, where human beings acquire the divine ability to make living creatures through magic. Other examples can be found during the middle ages, such as the automata created by al-Jazari (including the first programmable humanoid robot) and the legendary Albertus Magnus’ brazen head (an automaton reputed to be able to answer any question) and its mechanical servant (which advanced to the door when anyone knocked and then opened it and saluted the visitor). Later on, during the Italian Renaissance, several automata were designed (Mazlish, 1995). Leonardo da Vinci’s mechanical knight (a humanoid that could stand, sit, raise its visor and independently maneuver its arms) and its mechanical lion (which could walk forward and open its chest to reveal a cluster of lilies) are just two examples of this kind of automata. There is also a legend that says that Juanelo Turriano created an automata called “The Stick Man.” It begged in the streets, and when someone gave him a coin, he bowed. Through the modern age, automata became more and more sophisticated, based on and leading to advances in clockwork and engineering (Wood, 2002). Perhaps the most impressive of this period were the automata of Vaucanson. His first workshop was destroyed because the androids he wanted to build were considered profane. He later built a duck, which appeared to eat, drink, digest, and defecate. Other examples of modern automata are those created by Pierre Jaquet-Droz: the writer (made of 2500 pieces), the musician (made of 2500 pieces), and the draughtsman (made of 2000 pieces).

Questions related to the nature and purpose of life have been central to philosophy, and the quest of creating life has been present for centuries (Ball, 2011). Being able to imitate life with automata, can we understand better what makes the living alive? Hobbes (1651, p. 1) begins his Leviathan with:

Nature (the art whereby God hath made and governs the world) is by the art of man, as in many other things, so in this also imitated that it can make an artificial animal. For seeing life is but a motion of limbs, the beginning whereof is in some principal part within, why may we not say that all automata (engines that move themselves by springs and wheels as doth a watch) have an artificial life? [our emphasis]

Descartes also considered the living as being mechanical: life being similar to a clockwork (Descartes, 1677). Still, Descartes did not consider the soul to be mechanical, leading to dualism.

Nevertheless, in spite of these many antecedents, it is commonly accepted [see, for example, Bedau (2003)] that it was not until 1951 that the first formal artificial life (ALife) model was created, when von Neumann (1951) was trying to understand the fundamental properties of living systems. In particular, he was interested in self-replication, a fundamental feature of life. Collaborating with Stanislaw Ulam at Los Alamos National Laboratory, von Neumann defined the concept of cellular automata and proposed a self-replicating formal system, which was aimed at being computationally universal (Turing, 1936) and capable of open-ended evolution (von Neumann, 1966 Mange et al., 2004). Simpler alternatives to von Neumann’s “universal constructor” were later proposed by Codd (Hutton, 2010) and Banks (1971). Langton (1984) then proposed simpler self-replicating “loops,” based on Codd’s ideas but without universality 2 . Popularization and further development of cellular automata continued in the 1970s and 1980s, the best known examples being Conway’s Game of Life (Berlekamp et al., 1982), and Wolfram’s elementary cellular automata (Wolfram, 1983). A contemporary of von Neumann, Barricelli (1963) developed computational models similar to cellular automata, although focusing on evolution.

In parallel to these studies by von Neumann and others, cybernetics studied control and communication in systems (Wiener, 1948 Gershenson et al., 2014). Cybernetics and systems research described phenomena in terms of their function rather than their substrate, so similar principles were applied to animals and machines alike. Langton (1984) suggested that life should be studied as property of form, not matter. This resonates with the cybernetic approach, so it can be said that ALife has strong roots in cybernetics. Moreover, central concepts such as homeostasis (Ashby, 1947a, 1960 Williams, 2006) and autopoiesis (Varela et al., 1974 Maturana and Varela, 1980) were developed within and inspired by cybernetics (Froese and Stewart, 2010). A couple of examples, Walter (1950, 1951) built robotic “tortoises” (Holland, 1997), which can be classified as early examples of adaptive robotics. In the 1960s, Beer (1966) developed a model for organizations based on the principles of living systems. Beer’s ideas were implemented in Chile during the Cybersyn project (Miller Medina, 2005) in the early 1970s.

It is clear that life does not depend only on its substrate. Take, for example, Kauffman’s blender thought experiment (Kauffman, 2000): imagine you take the biosphere, place it in a giant blender, and press MAX. For some time, you would have the same molecular diversity. However, without its organization, the complex molecules of the biosphere would soon decay and their diversity would be lost. Living systems organize flows of matter, energy, and information to sustain themselves. Life cannot be studied without considering this organization, as one cannot distinguish molecules, which are part of a living organization from those that are not. There have been several advances, but there is still much to discover about the realm of the living.

ALife has been closely related to artificial intelligence (AI), since some of their subjects overlap. As Bedau (2003, p. 597) stated: “living and flourishing in a changing and uncertain environment requires at least rudimentary intelligence.” However, the former is particularly focused on systems, which can mimic nature and its laws and therefore it is more related to biology, while the latter is mainly focused on how human intelligence can be replicated, and therefore, it is more related to psychology. Moreover, they differ in their modeling strategies. On the one hand, most traditional AI models are top-down specific systems involving a complicated, centralized controller that makes decisions based on access to all aspects of global state. On the other hand, ALife systems are typically bottom-up (Maes, 1993), implemented as low-level agents that simultaneously interact with each other, and whose decisions are based on information about, and directly affect, only their own local environment (Bedau, 2003).

The research around these topics continued until 1987, the year in which Langton organized the first Workshop on the Synthesis and Simulation of Living Systems in Santa Fe, New Mexico, where the term 𠇊rtificial life” was coined in its current usage. The event marked the official birth of the field. Incidentally, the scientific study of complex systems (Gershenson, 2008) also initiated roughly at the same time in the same place, the Santa Fe Institute.

Figure 1 summarizes the “prehistory” of ALife, which begins with the ancient myths and stories and finishes with the formal creation of this area of research.

Figure 1. Summary of the historical roots of artificial life, from its precedents in the ancient myths and stories to the formal creation of this area of research.


Ver el vídeo: Qué es Neuralink? El proyecto que conectará tu cerebro a la computadora (Agosto 2022).