jueves, 3 de febrero de 2011

Ya falta menos para el traductor universal.

El mes pasado, Google reveló su más reciente innovación, una aplicación para teléfonos celulares que puede traducir casi simultáneamente el habla de un idioma a otro.

Google Conversation, hasta ahora sólo disponible para traducir entre inglés y español, generó titulares emocionados especulando que un verdadero traductor universal –una idea popularizada por Star Trek- podría estar a la vuelta de la esquina.

Es fácil dejarse llevar por las expectativas. El actual software de traducción en línea basado en texto, Translate, es tan bueno como siempre, permitiendo a los usuarios obtener traducciones razonablemente confiables entre varios idiomas.

Sin embargo, el potencial es evidente. Si la tecnología mejora, todos podríamos recorrer el mundo como políglotas, conversando libremente en cualquier lengua o dialecto.

La compañía también está adaptando su software de reconocimiento de fotos, Google Goggles, para permitir a los usuarios de teléfonos traducir signos. Recientemente dijo que estaba buscando un gran avance para poder traducir poesía.

El gerente de producto de Google, Awaneesh Verma, admitió que cuando lanzó Translate, el servicio “aún estaba en sus primeras etapas” y que las traducciones tempranas habían mostrado una ligera falta de ilación al realizar su tarea.

Los expertos en el campo dicen que tendremos esperar algún tiempo; un hecho que se vuelve dolorosamente claro cuando observamos la historia de la traducción computarizada.

Desde el nacimiento de la computación moderna, los programadores han querido convertir sus máquinas en procesadores de lenguaje. En 1954, IBM anunció que su impactante “cerebro electrónico” 701 había traducido exitosamente del ruso al inglés.

El anunció condujo a afirmaciones audaces acerca de la inminencia de la traducción asistida por computadora. Leon Dostert, un profesor involucrado en el experimento, predijo que una traducción consistente sería un “hecho consumado” en “cinco o tal vez tres años”.

Pero a medida que los lingüistas inyectaban las reglas de traducción en bases de datos, las computadoras sufrían, tropezando repetidamente con las peculiaridades de las lenguas y produciendo oraciones mutiladas.

De acuerdo con Phil Blunso, un experto en lingüística computacional de la Universidad de Oxford, el gran salto hacia delante llegó 40 años después, cuando los programadores se dieron cuenta de que la lingüística los estaba frenando.

Desde alrededor de 1990, un grupo en los Estados Unidos surgió con la idea de tratarlo sólo como un problema estadístico; más como un programa de aprendizaje de la máquina en el que esencialmente se ignora la lingüística y sólo se buscan patrones en los datos”, dijo.

La piedra angular de estos programadores fue inicialmente proporcionada por el Parlamento de Canadá, que publicó procedimientos en línea en inglés y en francés, permitiendo a las computadoras comparar textos idénticos en dos idiomas distintos.

A medida que el contenido web se ha expandido, las computadoras se han basado en otras fuentes bilingües, incluyendo el Parlamento Europeo y sitios de noticias publicados en múltiples idiomas. Sin embargo, aunque ahora traducen noticias y documentos políticos bien, aún luchan con textos más matizados.

Blunson dice que la tecnología actualmente disponible es el resultado de la investigación de diez años atrás, y revela que traductores más rápidos e inteligentes están en camino.

El problema principal es que son lentos y computacionalmente intensos, que es la razón por la cual no los vemos en la web”, dijo Blunson. “Si fueras a Google y le dijeras: 'traduce esta página', y te la devolviera un par de horas más tarde, no estarías contento”.

El problema es que cada uno de estos sistemas tiene errores, así que produce una cascada. Si piensas que una traducción no tiene buena calidad, cuando pones un sistema de habla en el otro extremo, se vuelve peor”.

Aún queda mucho camino por recorrer”, dijo.

Esta confesión no sorprende a los lingüistas, que ven miles de obstáculos en el camino de un traductor computarizado universal.

Las principales dificultades están en lidiar con la velocidad del habla natural; lidiar con la variación del acento por regiones; lidiar con las palabras de baja frecuencia, especialmente nombres propios; y eliminar la interferencia del ruido de fondo”, dijo David Crystal, profesor honorario de Lingüística en la Universidad de Gales, Bangor.

Ningún sistema puede hacer esto en el presente”.

Del mismo modo, los traductores profesionales ven el trabajo de Google con un escepticismo considerable.

La traducción computarizada está mejorando mucho constantemente, pero aún tiene aciertos y errores”, dijo Rory Mulholland, una corresponsal en París para la agencia France-Presse y traductora de varias novelas del francés al inglés.

Algunas veces produce impresionantes buenos resultados (pero) nunca reemplazará a los humanos”.

Mulholland cita un intento abortado de un periódico francés de dejar que las máquinas crearan versiones en inglés de sus páginas, las cuales quedaron repletas de titulares mutilados.

Cualquier compañía que busque reducir costos, eliminando a los traductores humanos debería observar, por ejemplo, al diario francés La Tribune. Decidió que sus artículos fueran traducidos automáticamente y terminó muy avergonzado”.

No hay comentarios:

Publicar un comentario