Software
Ordenadores que miran en el microscopio
Científicos enseñan a las máquinas cómo analizar las células cerebrales
En los primeros días de la investigación de neurociencia, los científicos tiñeron concienzudamente las células del cerebro y dibujaron a mano lo que vieron en un microscopio. Ahora, en 2018, las máquinas pueden aprender cómo hacer ese trabajo.
Según un nuevo estudio publicado en ‘Cell’, es posible enseñar a las máquinas a distinguir las características de las neuronas y otras células que no se han manchado o sufrido otros tratamientos dañinos. El estudio fue parcialmente financiado por el Instituto Nacional de Trastornos Neurológicos y Accidentes Cerebrovasculares (NINDS, por sus siglas en inglés), parte de los Institutos Nacionales de Salud estadounidenses, informa Europa Press.
«Este enfoque tiene el potencial de revolucionar la investigación biomédica --apunta Margaret Sutherland, directora del programa en el NINDS--. Los investigadores ahora están generando cantidades extraordinarias de datos. Para los neurocientíficos, esto significa que las máquinas de entrenamiento para ayudar a analizar esta información pueden ayudar a acelerar nuestra comprensión de cómo se juntan las células del cerebro y en aplicaciones relacionadas con el desarrollo de fármacos».
Un plato, o cultivo, de células neuronales parece uniforme a simple vista y no se pueden ver en él las diferentes células individuales. Desde finales del siglo XIX, cuando los neurocientíficos pioneros, Santiago Ramón y Cajal y Camillo Golgi, dibujaron los primeros mapas del sistema nervioso, los científicos han estado desarrollando tintes y métodos de tinción para ayudar a distinguir las estructuras en el cerebro, incluyendo diferentes tipos de células y su estado de salud. Sin embargo, muchos de estos métodos involucran químicos fuertes que fijan, o congelan, las células en un estado antinatural o dañan las células vivas después de que se han aplicado varios tintes. Las técnicas tradicionales también limitan los detalles que los científicos pueden observar.
Un equipo dirigido por Steven Finkbeiner, director e investigador principal de los Institutos Gladstone en San Francisco, Estados Unidos, y profesor de Neurología y Fisiología en la Universidad de California, San Francisco, exploró si se podría capacitar los ordenadores para identificar estructuras en células no teñidas. «Todos los días nuestro laboratorio creaba cientos de imágenes, mucho más de lo que podíamos ver y analizar. Un día, un par de investigadores de Google llamaron a nuestra puerta para ver si podían ayudarnos», relata el autor principal del estudio, el doctor Finkbeiner.
Los investigadores utilizaron un método llamado Deep Learning, que se basa en los principios del aprendizaje automático, un tipo de inteligencia artificial en el que las máquinas pueden aprender de los datos y tomar decisiones. El software de reconocimiento facial es un ejemplo de aprendizaje automático. Usando Deep Learning, el equipo de Finkbeiner entrenó un programa de ordenador para analizar las células cerebrales al mostrar imágenes manchadas y no teñidas. Luego, para probar si el programa había aprendido algo, los autores lo desafiaron con nuevas imágenes sin etiqueta.
Después de la primera ronda de entrenamiento, el programa identificó dónde se ubicaban las células en el plato de cultivo al aprender a detectar el núcleo de una célula, una estructura redonda que contiene información genética y sirve como centro de comando de la célula. Durante experimentos adicionales, el equipo aumentó la complejidad de las características que el programa estaba buscando y lo entrenó con éxito para distinguir las células muertas de las células vivas, así como para identificar tipos específicos de células cerebrales. Además, el programa aprendió a diferenciar entre axones y dendritas, que son dos tipos específicos de extensiones en neuronas. El programa tuvo éxito en la predicción de estructuras en el tejido no marcado. «Deep Learning toma un algoritmo, o un conjunto de reglas, y lo estructura en capas, identificando características simples de partes de la imagen, y luego pasa la información a otras capas que reconocen características cada vez más complejas, como patrones y estructuras. Es una reminiscencia de cómo nuestro cerebro procesa la información visual --dice Finkbeiner--. Los métodos de Deep Learning pueden descubrir mucha más información de la que se puede ver con el ojo humano».
Finkbeiner y su equipo notaron que el principal inconveniente del uso de esta tecnología es que los conjuntos de datos de capacitación deben ser muy grandes, idealmente alrededor de 15.000 imágenes. Además, puede haber un riesgo de sobre-entrenamiento de los programas, que se vuelven tan especializados que solo pueden identificar estructuras en un conjunto particular de imágenes o en imágenes generadas de una manera particular, y no hacer predicciones sobre imágenes más generales, lo que podría limitar el uso de esta tecnología.
Finkbeiner y sus colegas planean aplicar estos métodos en la investigación centrada en la enfermedad. «Ahora que demostramos que esta tecnología funciona, podemos comenzar a utilizarla en la investigación de enfermedades. El aprendizaje profundo puede detectar algo en las células que podría ayudar a predecir los resultados clínicos y puede ayudarnos a detectar posibles tratamientos», afirma Finkbeiner. Se necesita más investigación para refinar la tecnología y hacer que esté más ampliamente disponible. EP
✕
Accede a tu cuenta para comentar