Inteligencia Artificial: Científicos logran transformar señales cerebrales en habla audible

Investigadores han logrado decodificar señales cerebrales a través de implantes e inteligencia artificial, prediciendo con precisión palabras habladas con una precisión del 92 al 100%

Se trata de un paso significativo en el ámbito de las interfaces cerebro-computadora.

Se trata de un paso significativo en el ámbito de las interfaces cerebro-computadora.  Crédito: Cottonbro Studio | Pexels

En un avance innovador, investigadores de la Universidad de Radboud y la UMC Utrecht han aprovechado el poder de las señales cerebrales, transformándolas en habla audible.

Mediante una combinación de implantes cerebrales e inteligencia artificial, lograron una asombrosa tasa de precisión del 92 al 100% en la predicción de las palabras que la gente pretendía decir.

Estos extraordinarios hallazgos se publicaron en el Journal of Neural Engineering este mes, lo que marca un paso significativo en el ámbito de las interfaces cerebro-computadora (BCI).

La autora principal, Julia Berezutskaya, investigadora del Instituto Donders para el Cerebro, la Cognición y el Comportamiento de la Universidad de Radboud y de la UMC Utrecht, destaca la inmensa promesa de esta investigación en el campo de las BCI.

El estudio utilizó implantes cerebrales en pacientes con epilepsia para descifrar las palabras habladas de los individuos, un hito que podría revolucionar la comunicación para aquellos con limitaciones físicas.

Berezutskaya imagina un futuro en el que esta tecnología pueda extenderse a personas encerradas, personas paralizadas e incapaces de comunicarse a través de medios convencionales. Ella señala: “Estas personas pierden la capacidad de mover los músculos y, por tanto, de hablar. Al desarrollar una interfaz cerebro-computadora, podemos analizar la actividad cerebral y darles voz nuevamente”.

Implantes cerebrales e inteligencia artificial

Los investigadores llevaron a cabo un experimento con personas no paralizadas equipadas con implantes cerebrales temporales. Durante el experimento, se pidió a los participantes que vocalizaran varias palabras mientras se monitoreaba de cerca su actividad cerebral.

Berezutskaya explica: “Luego pudimos establecer un mapeo directo entre la actividad cerebral, por un lado, y el habla, por otro. También utilizamos modelos avanzados de inteligencia artificial para traducir esa actividad cerebral directamente en habla audible”.

Uno de los resultados más sorprendentes de este estudio es que el discurso reconstruido se parecía mucho al tono de voz y la forma de hablar del hablante original. La tecnología logró no solo identificar correctamente las palabras, sino también transmitirlas de manera audible y comprensible, similar a una voz natural.

Investigadores de todo el mundo están trabajando diligentemente para decodificar palabras y oraciones a partir de patrones cerebrales. Si bien este estudio reconstruyó con éxito el habla inteligible con conjuntos de datos relativamente pequeños, el objetivo final es predecir oraciones y párrafos completos basándose únicamente en la actividad cerebral.

Berezutskaya reconoce las limitaciones existentes y enfatiza la necesidad de más experimentos, implantes avanzados, conjuntos de datos más grandes y modelos de IA sofisticados. Aunque el viaje continúa, este avance sin duda nos impulsa en la dirección correcta.

Sigue leyendo:
· Las personas más influyentes del mundo en la inteligencia artificial, según TIME
· Los mejores negocios de comida para emprender en Nueva York, según la Inteligencia Artificial
· ¿El “asesino de Google”?: qué ventajas tiene el gigante tecnológico en la carrera de la inteligencia artificial

En esta nota

Inteligencia artificial
Contenido Patrocinado
Enlaces patrocinados por Outbrain