Un nuevo sistema automático de subtitulado supera al método tradicional en precisión para las noticias en directo

10 min de lectura
Escuchar artículoLocución generada por IA
Un nuevo sistema automático de subtitulado supera al método tradicional en precisión para las noticias en directo

Infografía generada por IAUna investigación de la Universidad Carlos III de Madrid ha demostrado que un sistema de subtitulado automático sin intervención humana puede generar subtítulos para noticias en directo con una precisión y un retardo significativamente mejores que los métodos semiautomáticos actuales basados en "respeaking" o rehablado. Este avance promete una mayor fidelidad y accesibilidad a la información para la comunidad sorda y con discapacidad auditiva.

El reto de la accesibilidad en tiempo real

El acceso a la información es un derecho fundamental, y en la era audiovisual, la televisión sigue siendo un medio clave. Para las personas sordas o con problemas de audición, los subtítulos son la puerta de entrada a contenidos que de otro modo serían inaccesibles. Si bien el subtitulado de programas grabados ha alcanzado un alto nivel de calidad, la retransmisión en directo —como informativos, eventos deportivos o debates— sigue siendo un desafío tecnológico considerable. La necesidad de transcribir el audio de forma precisa, con un retardo mínimo y a una velocidad de lectura cómoda, crea un complejo equilibrio difícil de lograr.

Las normativas, como la norma española UNE 153,010:2012, establecen criterios de calidad para estos subtítulos, fijando límites para el retardo (latencia) y la velocidad de presentación en pantalla. Sin embargo, en la práctica, los sistemas actuales a menudo no cumplen con estos estándares, afectando la calidad de la experiencia del espectador. El principal obstáculo ha sido la necesidad de intervención humana para corregir los errores de los sistemas de reconocimiento de voz en tiempo real.

Un estudio comparativo pionero

Un equipo de investigadores del Instituto para el Desarrollo Tecnológico y la Promoción de la Innovación de la Universidad Carlos III de Madrid (UC3M) ha abordado este problema directamente. En su estudio, publicado en la revista Universal Access in the Information Society, presentan un análisis comparativo entre dos sistemas de subtitulado para programas de noticias en directo.

El equipo, formado por Adrian Ruiz-Arroyo, Angel Garcia-Crespo, Francisco Fuenmayor-Gonzalez y Roxana Rodriguez-Goncalves, analizó los subtítulos generados para cuatro informativos de la cadena española Canal Extremadura. Compararon el sistema semiautomático basado en "respeaking", utilizado actualmente por la cadena, con un sistema totalmente automático desarrollado por ellos mismos. Para la evaluación, se midieron tres parámetros técnicos cruciales: la precisión, la latencia y la velocidad de los subtítulos generados.

¿Cómo funciona cada sistema?: El humano frente a la máquina

Para entender la magnitud del hallazgo, es fundamental comprender las diferencias entre las dos tecnologías evaluadas. El método tradicional de "respeaking" (rehablado) implica a un profesional humano que escucha la emisión en directo en un entorno insonorizado y la repite de forma clara y pausada a un software de Reconocimiento Automático del Habla (ASR). Este profesional no solo repite, sino que a menudo parafrasea, resume u omite partes del discurso original para poder mantener el ritmo de la emisión y corregir posibles errores del software. Aunque ha sido la solución más extendida, este proceso introduce un filtro humano que, como revela el estudio, puede llevar a una pérdida considerable de información.

En contraste, el sistema automático desarrollado por los investigadores de la UC3M elimina por completo la intervención humana del proceso en tiempo real. El sistema recibe directamente el audio original de la retransmisión y lo procesa mediante servicios de ASR avanzados basados en la nube. Un software se encarga de segmentar el texto resultante, aplicar reglas de formato (como el número de caracteres por línea o la división de frases) y enviarlo de vuelta a la cadena de televisión para su emisión. Todo el proceso es autónomo y busca la máxima fidelidad al audio original.

Entendiendo la Tasa de Error de Palabra (WER)

Para medir la precisión de un sistema de transcripción, los investigadores utilizan una métrica estándar llamada Tasa de Error de Palabra o WER (del inglés, Word Error Rate). El WER no se limita a contar las palabras incorrectas; su cálculo es más sofisticado. Compara la transcripción generada por el sistema (hipótesis) con una transcripción humana perfecta del mismo audio (referencia). El cálculo se basa en tres tipos de errores: sustituciones (una palabra es reemplazada por otra), inserciones (se añade una palabra que no estaba en el audio original) y eliminaciones (se omite una palabra que sí estaba). La fórmula es: WER = (Sustituciones + Inserciones + Eliminaciones) / (Número total de palabras en la referencia). Un WER más bajo indica una mayor precisión. Por ejemplo, un WER del 5% significa que, de media, 5 de cada 100 palabras transcritas son erróneas.

Resultados reveladores: mayor precisión y menor retardo

Los resultados del análisis comparativo fueron concluyentes y sorprendentes. En términos de precisión, el sistema automático demostró una calidad excelente, con una Tasa de Error de Palabra (WER) que osciló entre el 3.76% y el 7.29% en los cuatro programas analizados. En cambio, el sistema de respeaking obtuvo resultados deficientes, con un WER superior al 32% en todos los casos. El estudio desveló la causa principal de esta disparidad: el 94% de los errores del sistema de respeaking se debían a la omisión de contenido. Los rehabladores, para poder seguir el ritmo de los presentadores, se veían forzados a eliminar frases enteras, privando a los espectadores de una parte sustancial de la información.

En cuanto a la latencia, el sistema automático mantuvo un retardo estable y aceptable de aproximadamente 4 segundos, cumpliendo con la normativa española que establece un máximo de 8 segundos. Por el contrario, el sistema de respeaking mostró una latencia mucho mayor y más irregular, superando los 8 segundos en tres de los cuatro programas y alcanzando picos de hasta 26 segundos de retardo. Esta demora excesiva rompe la sincronía entre lo que se ve y lo que se lee, dificultando el seguimiento del programa.

El único parámetro en el que el sistema de respeaking obtuvo un mejor resultado fue la velocidad de lectura. Sus subtítulos se presentaron a una media de 133 palabras por minuto (wpm), una velocidad cómoda para la lectura. El sistema automático, al ser más fiel al discurso original, generó subtítulos a una media de 190 wpm, ligeramente por encima del límite recomendado de 180 wpm. Los investigadores señalan que este es un aspecto a optimizar, aunque la naturaleza de los informativos, donde la atención se centra más en el texto, podría permitir velocidades algo superiores.

Implicaciones para un futuro más accesible

Este estudio supone un punto de inflexión. Demuestra que la tecnología de reconocimiento de voz ha madurado lo suficiente como para ofrecer soluciones de subtitulado en directo totalmente automáticas que no solo son viables, sino superiores en aspectos clave a los métodos que dependen de la intervención humana. La principal ventaja es la fidelidad: al transcribir el contenido íntegro, se garantiza que la comunidad sorda reciba la misma información que el resto de los espectadores, sin resúmenes ni omisiones que puedan alterar el significado o el contexto.

La implementación de estos sistemas podría mejorar drásticamente la calidad y la consistencia del subtitulado en directo. Al eliminar el factor humano —sujeto a fatiga, velocidad de habla o complejidad del tema— se asegura un rendimiento más homogéneo y fiable. Esto podría extenderse a todo tipo de programas en directo, democratizando el acceso a la información y el entretenimiento.

Hacia la automatización completa del subtitulado

Los autores califican su trabajo como un "primer estudio" enfocado en analizar y desarrollar un sistema de subtitulado automático sin intervención humana con resultados de alta calidad. Los datos obtenidos son prometedores y abren la puerta a una nueva generación de herramientas de accesibilidad. El siguiente paso, según los investigadores, es continuar perfeccionando el sistema, especialmente para gestionar los picos de velocidad de subtitulado sin sacrificar la precisión ni la baja latencia.

Además, planean realizar pruebas de campo con usuarios de la comunidad sorda para evaluar no solo los parámetros técnicos, sino también la experiencia subjetiva y las preferencias de los espectadores. Esta investigación marca el camino hacia un futuro donde la accesibilidad audiovisual en tiempo real sea completa, precisa y verdaderamente universal, gracias al avance de la inteligencia artificial.

Ficha Técnica

  • Título original: Comparative analysis between a respeaking captioning system and a captioning system without human intervention

  • Revista: Universal Access in the Information Society

  • Año: 2022

  • DOI: 10.1007/s10209-022-00926-3

  • Autores: Adrian Ruiz-Arroyo, Angel Garcia-Crespo, Francisco Fuenmayor-Gonzalez, Roxana Rodriguez-Goncalves

Más de Angel García Crespo

Valora este artículo
0.0/(0 votos)
Difundir
¿Qué te ha parecido?

Comentarios (0)

?

Aún no hay comentarios

Sé el primero en compartir tu opinión sobre este artículo.

Asistente de Lectura AI

Respuestas basadas %100 en el artículo

Consultas de hoy:
100 restantes/ 100

¡Hola! Soy el asistente de IA de esta publicación. Puedes preguntarme cualquier cosa sobre el contenido de este artículo.