Actualidad RT
Científicos de la Universidad de Emory, EE.UU., han decodificado imágenes visuales del cerebro de un perro, ofreciendo un primer vistazo a cómo la mente canina reconstruye lo que ve. Los investigadores registraron los datos neuronales de perros y humanos en exámenes de imagen por resonancia magnética funcional (fMRI, siglas en inglés) y utilizaron un algoritmo de aprendizaje automático para analizar los patrones. Los resultados sugieren que los canes están más en sintonía con las acciones de su entorno que con quién o qué está realizando la acción, según comunicaron los autores de la investigación.
«Los humanos estamos muy orientados a objetos», dice Gregory Berns, profesor de Emory y uno de los autores principales del estudio. «Hay 10 veces más sustantivos que verbos en el idioma inglés porque tenemos una obsesión particular con nombrar objetos. Los perros parecen estar menos preocupados por quién o qué están viendo y más preocupados por la acción en sí», detalla.
Berns señala que los canes y los humanos también tienen grandes diferencias en sus sistemas visuales, pues los perros solo ven en tonos de azul y amarillo, así como tienen una densidad ligeramente mayor que las personas de receptores de visión diseñados para detectar movimiento.
El investigador plantea que tiene mucho sentido que los cerebros de los perros estén muy sintonizados, más que nada, con las acciones. «Los animales deben estar muy preocupados por las cosas que suceden en su entorno para evitar que se los coman o para monitorear a los animales que podrían querer cazar. La acción y el movimiento son primordiales», explica.
¿Cómo hicieron el estudio?
Los investigadores registraron los datos neuronales de fMRI de dos perros despiertos mientras miraban videos en tres sesiones de 30 minutos. Berns y sus colegas fueron pioneros en técnicas de entrenamiento para hacer que los canes caminen hacia un escáner fMRI y se mantengan completamente quietos y sin restricciones mientras se mide su actividad neuronal. Dos humanos también se sometieron al mismo experimento, viendo el mismo video en tres sesiones separadas mientras estaban acostados haciéndose una fMRI.
Los videos fueron creados desde la perspectiva visual de un perro, por lo que resultaban lo suficientemente interesante como para que ellos pudieran verlos durante un período prolongado. Las escenas grabadas incluyeron perros acariciados por personas y recibiendo golosinas, olfateando, jugando, comiendo o paseando. También mostraban autos o bicicletas en movimiento, un gato caminando, un ciervo cruzando un camino, gente sentada, abrazándose, besándose, comiendo u ofreciendo un hueso de goma o una pelota a la cámara.
«Demostramos que podemos monitorear la actividad en el cerebro de un perro mientras mira un video y, al menos hasta cierto punto, reconstruir lo que está mirando», dijo Berns. «El hecho de que podamos hacer eso es notable», recalcó. Más allá de los humanos, la técnica se ha aplicado solo a un puñado de otras especies, incluidos varios primates.
«Si bien nuestro trabajo se basa en solo dos perros, ofrece una prueba de concepto de que estos métodos funcionan en caninos», dice Erin Phillips, primera autora del estudio, publicado el pasado martes en Journal of Visualized Experiments. «Espero que este documento ayude a allanar el camino para que otros investigadores apliquen estos métodos en perros, así como en otras especies, para que podamos obtener más datos y una mayor comprensión de cómo funcionan las mentes de diferentes animales», agregó.
Perspectivas de aplicación
Para Philips, comprender cómo los diferentes animales perciben el mundo es importante para su investigación de campo actual sobre cómo la reintroducción de depredadores puede afectar a los ecosistemas.
«Históricamente, no ha habido mucha superposición en informática y ecología», dice la científica. «Pero el aprendizaje automático es un campo en crecimiento que está comenzando a encontrar aplicaciones más amplias, incluso en ecología», concluye.