Translated debuta con Trust Attention, logrando una calidad sin precedentes en la TA y allanando el camino hacia la precisión en la IA generativa

La séptima y última versión de ModernMT mejora la calidad de las traducciones hasta en un 42 % al utilizar Trust Attention, una innovadora técnica desarrollada por Translated que relaciona el origen de los datos con su impacto en la precisión de la traducción.ROMA–(BUSINESS WIRE)–Translated, el principal proveedor de soluciones lingüísticas basadas en IA, ha anunciado el lanzamiento de la séptima versión de ModernMT, una importante actualización de su sistema de traducción automática (TA) adaptativa. La última versión presenta Trust Attention, una innovadora técnica inspirada en la capacidad del cerebro humano para priorizar la información de fuentes fiables, lo que mejora la calidad de las traducciones hasta en un 42 % (ver gráfico adjunto). Esta innovación establece un nuevo estándar en el sector, alejándose de los sistemas tradicionales de TA que no pueden distinguir entre datos fiables e información de menor calidad durante el proceso de entrenamiento.
ModernMT ahora utiliza un innovador sistema de ponderación para priorizar el aprendizaje con datos cualificados y de alta calidad, es decir, con traducciones realizadas y revisadas por traductores profesionales, sobre el contenido no verificado de la web. Como hizo al introducir la adaptabilidad, Translated se inspiró en el cerebro humano para desarrollar esta nueva técnica. Al igual que las personas analizan varias fuentes de información para identificar las más fiables y fidedignas, la séptima versión de ModernMT identifica los datos de entrenamiento más valiosos y prioriza su aprendizaje en función de ellos.
«La capacidad de ModernMT para priorizar datos de mayor calidad con el fin de mejorar el modelo es el avance más significativo en la traducción automática desde que se introdujo la adaptabilidad dinámica hace cinco años», afirmó Marco Trombetti, director ejecutivo de Translated. «Esta emocionante innovación ofrece nuevas oportunidades para que las empresas usen la TA para llevar la experiencia global del cliente a otro nivel. También ayudará a que los traductores aumenten su productividad y sus ingresos».
La introducción de este nuevo enfoque es un gran avance para las empresas que buscan una mayor precisión al traducir grandes volúmenes de contenido o que requieren un alto grado de personalización del motor de TA, así como para los traductores que integran la TA en su flujo de trabajo.
Hoy en día, existe un amplio debate sobre la aplicación de los grandes modelos de lenguaje (LLM) en la traducción. Si bien la traducción automática tradicional prioriza la precisión sobre la fluidez, los LLM tienden a hacer hincapié en la fluidez. En ocasiones, esto puede generar resultados engañosos debido a alucinaciones si los resultados no se basan en la información recibida de los datos de entrenamiento. Creemos que el Trust Attention de Translated puede mejorar la precisión de los modelos generativos y reducir la posibilidad de que se produzcan estos errores. Esto podría sentar las bases de la próxima era de la traducción automática.
Todos los clientes de Translated se beneficiarán de la mejora en la calidad del nuevo modelo de TA, por la que los plazos de los proyectos serán más breves. Los traductores que trabajen con Translated apreciarán las capacidades del nuevo modelo en Matecat, la herramienta TAO desarrollada con IA, basada en la web y gratuita de Translated. Los traductores que utilicen una herramienta TAO oficialmente compatible (Matecat, memoQ y Trados) con una licencia activa de ModernMT también disfrutarán de las capacidades del nuevo modelo.
A partir de hoy, la séptima versión de ModernMT reemplazará a la sexta y estará disponible a través de API para los 200 idiomas que admite ModernMT con la misma estructura de precios. Invitamos a los nuevos clientes a probar la versión más reciente de ModernMT en modernmt.com. Contacts
Silvio Gulizia
Jefe de contenido
Correo electrónico: silvio@translated.comMóvil: +39 393 1044785