LA MÁQUINA DE LEER LA MENTE CADA VEZ MÁS CERCA

Investigadores de Berkeley descifran las ondas que emite el cerebro cuando está pensando
Los pacientes con daños en los mecanismos del habla podrían beneficiarse del hallazgo. Los neurocientíficos podrían, algún día, ser capaces de escuchar los monólogos internos constantes que tienen lugar en la mente, o escuchar el discurso imaginario de un paciente con derrame cerebral o con incapacidad para hablar, según un equipo de investigadores de la Universidad de California, Berkeley. El trabajo, llevado a cabo en los laboratorios de Robert Knight, en Berkeley, y Edward Chang, en la Universidad de California en San Francisco, ha sido publicado en PLoS Biology.
Los científicos han logrado descifrar la actividad eléctrica en una región del sistema auditivo humano llamada circunvolución temporal superior (STG, por sus siglas en inglés) al analizar el patrón de actividad en la STG, fueron capaces de reconstruir las palabras que los sujetos escuchaban en una conversación normal.

"Este estudio es muy importante para los pacientes que tienen daños en los mecanismos del habla a causa de un accidente cerebrovascular o enfermedad de Lou Gehrig", afirma Knight, profesor de Psicología y Neurociencia de la Universidad de California en Berkeley. "Esta investigación se basa en los sonidos de una persona escucha realmente, pero para usar esto en una prótesis, estos principios deben aplicarse a alguien que está imaginando un discurso", advierte el primer autor, Brian N. Pasley, investigador posdoctoral en la Universidad de California, en Berkeley.

CODIFICACIÓN DEL HABLA
Pasley probó dos métodos diferentes para adaptar los sonidos hablados al patrón de actividad de los electrodos. Los pacientes oían una sola palabra y Pasley utilizaba dos diferentes modelos computacionales para predecir la palabra basándose en las grabaciones de los electrodos; el mejor de los dos métodos fue capaz de reproducir un sonido bastante cercano a la palabra original.

El objetivo final del estudio fue explorar cómo el cerebro humano codifica el habla, y determinar qué aspectos del lenguaje son más importantes para la comprensión. "En algún momento, el cerebro tiene que extraer de fuera la información auditiva y mapearla en una palabra, ya que podemos entender el lenguaje y las palabras, independientemente de cómo suenan", dice Pasley. "La gran pregunta es, ¿cuál es la unidad más significativa del discurso, una sílaba o un fonema?", agrega.

En el Podcast que acompaña a artículo, el editor de PLoS Biology, Shah Ruchir, se sienta con Brian Knight y Robert Pasley para discutir sus hallazgos principales, las aplicaciones como prótesis neuronales, y las posibles implicaciones éticas de "leer la mente". ELPERIODICO.COM

Publicar un comentario

0 Comentarios