Guías Académicas

POSTEDICIÓN

POSTEDICIÓN

DOBLE TITULACIÓN GRADO DE TRADUCCIÓN E INTERPRETACIÓN Y DERECHO

Curso 2021/2022

1. Datos de la asignatura

(Fecha última modificación: 28-05-21 9:34)
Código
104644
Plan
ECTS
3
Carácter
Curso
5
Periodicidad
Segundo Semestre
Área
TRADUCCIÓN E INTERPRETACIÓN
Departamento
-
Plataforma Virtual

Campus Virtual de la Universidad de Salamanca

Datos del profesorado

Profesor/Profesora
José Manuel Bustos Gisbert
Grupo/s
1
Centro
Fac. Traducción y Documentación
Departamento
Traducción e Interpretación
Área
Traducción e Interpretación
Despacho
12
Horario de tutorías
Por determinar.
URL Web
http://diarium.usal.es/jbustos/
E-mail
jbustos@usal.es
Teléfono
923294580 Ext. 6264
Profesor/Profesora
Emilio Rodríguez Vázquez de Aldana
Grupo/s
1
Centro
Fac. Traducción y Documentación
Departamento
Informática y Automática
Área
Lenguajes y Sistemas Informáticos
Despacho
1
Horario de tutorías
Por determinar.
URL Web
-
E-mail
aldana@usal.es
Teléfono
923294580. Ext: 3030

2. Sentido de la materia en el plan de estudios

Bloque formativo al que pertenece la materia.

Módulo “Formación instrumental”, aunque con fuerte vinculación con “Traducción especializada”.

Papel de la asignatura.

Asignatura optativa de formación específica, con componentes vinculados con los recursos tecnológicos para la traducción, la gestión de proyectos y la traducción y revisión de textos.

Perfil profesional.

Traductor. Revisor. Gestor de proyectos. Localizador. Ingeniero de localización

3. Recomendaciones previas

Asignaturas que se recomienda haber cursado: Imprescindibles: "Informática básica", "Recursos tecnológicos para la traducción", "Gestión terminológica y de proyectos" y Lengua española III y IV


Asignaturas que se recomienda cursar simultáneamente: Recomendadas: asignaturas de traducción especializada. Localización II

4. Objetivo de la asignatura

Descubrir un nicho laboral cada vez más pujante, el de la posedición de contenido traducido automáticamente. Aprender sus principios teóricos y metodológicos, y practicar esta modalidad de traducción. Formarse una opinión equilibrada sobre la traducción automática y sus posibilidades presentes y futuras y sobre el potencial laboral y creativo del proceso de posedición. Reforzar procesos de análisis y preparación de recursos e instrumentos tecnológicos.

5. Contenidos

Teoría.

  • Historia de la traducción automática y modelos fundamentales.
  • La traducción automática estadística: el modelo basado en frases (PB-MT). Unas nociones.
  • Qué es una red neuronal. Nociones básicas e intuitivas
  • Preparando el camino a la traducción automática neuronal: la tokenización de un texto y la conversión de palabras a vectores. Qué son las Word Embeddings
  • Modelos de traducción automática neuronal principales:
    • La arquitectura Seq2Seq
    • La arquitectura Seq2Seq
    • La arquitectura Transformer
    • Propuestas híbridas
  • Últimos avances en Traducción automática neuronal.
  • Evaluación automática de la calidad de la traducción.
  • La posedición y la revisión.
  • Preedición, lenguaje controlado y reaprendizaje.
  • Niveles de posedición
  • Técnicas de posedición
  • Herramientas de posedición

6. Competencias a adquirir

Básicas / Generales.

Capacidad de aprendizaje y experimentación autónomo

Específicas.

  • Conocimiento de técnicas de gestión y procesado de corpus
  • Dominio de técnicas de revisión (posedición) de contenido traducido automáticamente.
  • Conocimiento de modelos y técnicas de los sistemas de traducción automática.

Transversales.

  • Instrumentales: aprender a aplicar métodos sistemáticos para el trabajo en ordenador con grandes cantidades de ficheros y ficheros de gran tamaño
  • Interpersonales: capacidad de trabajo en equipo, razonamiento crítico
  • Sistémicas: capacidad de organización, iniciativa y liderazgo, capacidad de identificación de problemas y búsqueda de soluciones

7. Metodologías

Presenciales

  • Clases magistrales
  • Clases prácticas
  • Otras: tutorías individuales o grupales.

No presenciales

  • Preparación de trabajos.
  •  Realización de tareas
  • Participación en foros y otras herramientas de comunicación

Estudio personal y lectura de documental.

8. Previsión de Técnicas (Estrategias) Docentes

9. Recursos

Libros de consulta para el alumno.

Burchardt, A. et. al. (2017): “A Linguistic Evaluation of Rule-Based, Phrase-Based, and Neural MT Engines”. The Prague Bulletin of Mathematical Linguistics, June 2017 (108), pp. 159-170. https://ufal.mff.cuni.cz/pbml/108/art-burchardt-macketanz-dehdari-heigold-peter-williams.pdf

Casacuberta Nolla, F. y Peris Abril, A. (2017): “Traducción automática neuronal”, Revista Tradumàtica, 15 , pp. 66-74. http://revistes.uab.cat/tradumatica/article/viewFile/n15-casacuberta-peris/pdf_48

Isaac Caswell and Bowen Liang (2020): Recent Advances in Google Translate. [Mensaje en un blog] Google AI Blog. En línea: https://ai.googleblog.com/2020/06/recent-advances-in-google-translate.html

Cho, Kyunghyun (2015a): Introduction to Neural Machine Translation with GPUs (part 1). [Mensaje en un blog] NVIDIA Developer Blog. 27 de Mayo de 2015. En línea: https://devblogs.nvidia.com/introduction-neural-machine-translation-with-gpus/

Cho, Kyunghyun (2015b): Introduction to Neural Machine Translation with GPUs (part 2). [Mensaje en un blog] NVIDIA Developer Blog. 14 de Junio 2015. En línea: https://developer.nvidia.com/blog/introduction-neural-machine-translation-gpus-part-2/

Cho, Kyunghyun (2015c): Introduction to Neural Machine Translation with GPUs (part 3). [Mensaje en un blog]. 26 de Junio de 2015. En línea: https://developer.nvidia.com/blog/introduction-neural-machine-translation-gpus-part-3

Forcada, M. L. (2017): “Making sense of neural machine translation”. Translation Spaces 6:2 pp. 291–309. http://www.dlsi.ua.es/~mlf/docum/forcada17j2.pdf

Forcada, M. L. (2019): Traducción automática neural: cómo funciona y qué se puede esperar de ella. [Diapositivas]. Departamento de Lenguajes y Sistemas, Universidad de Alicante. En línea: https://www.dlsi.ua.es/~mlf/tmp/forcada_torrejuana.pdf

Koehn, P. y Knowles, R. (2017): Six Challenges for Neural Machine Translation, Proceedings of the First Workshop on Neural Machine Translation. (p. 28–39). Vancouver: Association for Computational Linguistics. En línea: https://www.aclweb.org/anthology/W17-3204.pdf

Hu, Ke; Cadwell, Patrick (2016): “A Comparative Study of Post-editing Guidelines”. Baltic J. Modern Computing, (4)2, pp. 346-353. http://doi.org/10.13140/RG.2.1.2253.1446

Koehn, P. (2017): Neural Machine Translation, arXiv:1709.07809v1

Mesa-Lao, Bartolomé (2013): "Introduction to Post-Editing: The CasMaCat GUI". SEECAT Project.

Neubig, Graham (2017): Neural Machine Translation and Sequence-to-sequence Models: A Tutorial. arXiv:1703.01619

O'Brien, Sharon (2012): "Towards a Dynamic Quality Evaluation Model for Translation". JoSTrans. The Journal of Specialised Translation, 17. En línea: http://www.jostrans.org/issue17/art_obrien.php.

Peris, A. (2018): Is Attention All You Need? [Diapositivas]. Universitat Politècnica de València. En línea: https://www.prhlt.upv.es/aigaion2/attachments/Transformer.pdf-54651af972703d4b1443fc03a8a9e9a6.pdf

Rico, Celia (2012): "A Flexible Decision Tool for Implementing Post-editing Guidelines". Localisation Focus. The International Journal of Localisation, 11 (1), pp. 54-66. En línea: http://www.localisation.ie/sites/default/files/resources/locfocus/issues/LocalisationFocusVol11Issue1_online_0.pdf

Sánchez-Gijón, P. (2016): “La Posedición : Hacia Una Definición Competencial Del Perfil y Una Descripción Multidimensional Del Fenómeno.” Sendebar 27: 151–62.

Sato, K. (2016): Understanding neural networks with TensorFlow Playground. [Mensaje en un blog]. Google Cloud Blog. En línea: https://cloud.google.com/blog/products/gcp/understanding-neural-networks-with-tensorflow-playground

Steinberger Ralf, Mohamed Ebrahim, Alexandros Poulis, Manuel Carrasco-Benitez, Patrick Schlüter, Marek Przybyszewski & Signe Gilbro (2014). An overview of the European Union's highly multilingual parallel corpora. Language Resources and Evaluation Journal (LRE). December 2014, Volume 48, Issue 4, pp 679-707. DOI: 10.1007/s10579-014-9277-0.

Svoboda, T. (2018): The state of the (trade and) art in translation: PEMT automation, MT, and the future. In European Union, European Parliament, Translation services in the digital world. A sneak peek into the (near) future, pp. 106-119, Luxembourg..

TAUS (2013): "Pautas para la postedición de traducción automática". Trad.: iDISC. Thinktank/Resources/Best Practices. En línea: https://www.taus.net/think-tank/best-practices/postedit-best-practices/machine-translation-post-editing-guidelines-spanish.

Torres, J. (2019): Deep Learning: introducción práctica con Keras. Primera parte. Lulu Press. Versión en línea: https://torres.ai/deep-learning-inteligencia-artificial-keras/

Otras referencias bibliográficas, electrónicas o cualquier otro tipo de recurso.

Alcina, Amparo; Sánchez Gijón, Pilar, eds. (2017): Número especial: "Traducción automática: estado de la cuestión". Tradumàtica, 15. En línea: http://revistes.uab.cat/tradumatica/issue/view/n15

M. X. Chen, O. Firat, A. Bapna, M. Johnson, W. Macherey, G. Foster, L. Jones, N. Parmar, M. Schuster, Z. Chen, Y. Wu, M. Hughes (2018): The Best of Both Worlds: Combining Recent Advances in Neural Machine TranslationarXiv:1804.09849

Denny Britz, Anna Goldie, Minh-Thang Luong, Quoc Le: Massive Exploration of Neural Machines Translations Architectures. arXiv:1703.03906

Jakob Uszkoreit (2017): Transformer: A Novel Neural Network Architecture for Language Understanding. [Mensaje en un blog] Google AI Blog. 31 Agosto 2017. En línea: https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html

Wu, Yonghui; Schuster, Mike; Chen, Zhifeng; et al. (2016): Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation. arXiv:1609.08144

Vieira, Lucas Nunes; Alonso, Elisa; Bywood, Lindsay (eds.) (2019) Número especial: " Post-Editing in Practice: Process, Product and Networks". The Journal of Specialised Translation, 31. http://jostrans.org/issue31/issue31_toc.php

Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin (2017): Attention Is All You Need. arXiv:1706.03762

10. Evaluación

Consideraciones generales.

Se valorará la consecución de las competencias anteriormente indicadas, manteniendo un equilibrio entre aspectos conceptuales, instrumentales, interpersonales y de autorreflexión.

Criterios de evaluación.

  • Realización habitual de ejercicios y prácticas.
  • Debate oral y escrito sobre lecturas introductorias y temas concretos.
  • Demostración del dominio de técnicas y conceptos básicos.

Instrumentos de evaluación.

  • Tareas y prácticas (50%)
  • Seminarios, control de lecturas y/o trabajos y/o exposiciones (25%)
  • Pruebas escritas y cuestionarios (25%)

Recomendaciones para la evaluación.

Seguimiento continuado de las lecturas, tareas, y experimentación autónomas.

La presentación copiada total o parcialmente de alguno de los trabajos destinados a la evaluación supondrá el suspenso automático en la asignatura y la imposibilidad de recuperarla.

Recomendaciones para la recuperación.

Las mismas que para la evaluación.

11. Organización docente semanal