Guías Académicas

POSTEDICIÓN

POSTEDICIÓN

DOBLE TITULACIÓN GRADO DE TRADUCCIÓN E INTERPRETACIÓN Y DERECHO

Curso 2022/2023

1. Datos de la asignatura

(Fecha última modificación: 07-06-22 11:07)
Código
104644
Plan
ECTS
3
Carácter
Curso
5
Periodicidad
Segundo Semestre
Área
TRADUCCIÓN E INTERPRETACIÓN
Departamento
-
Plataforma Virtual

Campus Virtual de la Universidad de Salamanca

Datos del profesorado

Profesor/Profesora
José Manuel Bustos Gisbert
Grupo/s
1
Departamento
Traducción e Interpretación
Área
Traducción e Interpretación
Centro
Fac. Traducción y Documentación
Despacho
12
Horario de tutorías
Presenciales (despacho 12) o por videoconferencia con cita previa.
Los horarios se fijan una vez que comiencen las clases (pendiente de horarios también en ADE y en Derecho).
URL Web
http://diarium.usal.es/jbustos/
E-mail
jbustos@usal.es
Teléfono
923294580 Ext. 6264
Profesor/Profesora
Emilio Rodríguez Vázquez de Aldana
Grupo/s
1
Departamento
Informática y Automática
Área
Lenguajes y Sistemas Informáticos
Centro
Fac. Traducción y Documentación
Despacho
1
Horario de tutorías
Presencial (Despacho 1) sin cita previa.
Martes: 9 a 11
Jueves: de 9 a 13
URL Web
-
E-mail
aldana@usal.es
Teléfono
923294580. Ext: 3030

2. Sentido de la materia en el plan de estudios

Bloque formativo al que pertenece la materia.

Módulo “Formación instrumental”, aunque con fuerte vinculación con “Traducción especializada”.

Papel de la asignatura.

Asignatura optativa de formación específica, con componentes vinculados con los recursos tecnológicos para la traducción, la gestión de proyectos y la traducción y revisión de textos.

Perfil profesional.

Traductor. Revisor. Gestor de proyectos.

3. Recomendaciones previas

Asignaturas que se recomienda haber cursado:

Imprescindibles: "Informática básica", "Recursos tecnológicos para la traducción", "Gestión terminológica y de proyectos" y Lengua española I II, III y IV

Asignaturas que se recomienda cursar simultáneamente:

Recomendadas: asignaturas de traducción especializada. Localización II

4. Objetivo de la asignatura

Descubrir un nicho laboral cada vez más pujante, el de la posedición de contenido traducido automáticamente. Aprender sus principios teóricos y metodológicos, y practicar esta modalidad de traducción. Formarse una opinión equilibrada sobre la traducción automática y sus posibilidades presentes y futuras y sobre el potencial laboral y creativo del proceso de posedición. Reforzar procesos de análisis y preparación de recursos e instrumentos tecnológicos.

5. Contenidos

Teoría.

  • Historia de la traducción automática y modelos fundamentales.
  • La traducción automática estadística: el modelo basado en frases (PB-MT). Unas nociones.
  • Qué es una red neuronal. Nociones básicas e intuitivas
  • Preparando el camino a la traducción automática neuronal: la tokenización de un texto y la conversión de palabras a vectores. Qué son las Word Embeddings
  • Arquitecturas principales de los motores de traducción automática neuronal
  • Últimos avances en Traducc
  • Evaluación automática de la calidad de la traducción.
  • La posedición y la revisión.
  • Preedición, lenguaje controlado y reaprendizaje.
  • Niveles de posedición
  • Técnicas de posedición
  • Herramientas de posedición

6. Competencias a adquirir

Básicas / Generales.

  • Capacidad de aplicar los conocimientos a la práctica
  • Capacidad de trabajo individual

Específicas.

  • Dominio de herramientas informáticas generales
  • Dominio de técnicas de traducción
  • Rigor en la revisión y control de calidad

Transversales.

  • Motivación por la calidad
  • Adaptación a nuevas situaciones
  • Capacidad de gestión de la información
  • Conocimientos de informática relativas al campo de estudio
  • Resolución de problemas

7. Metodologías

Presenciales

  • Clases magistrales
  • Clases prácticas guiadas
  • Otras: tutorías individuales o grupales

No presenciales

  • Preparación de trabajos
  • Realización de tareas
  • Participación en foros y otras herramientas de comunicación
  • Estudio personal y lectura de documental

8. Previsión de Técnicas (Estrategias) Docentes

9. Recursos

Libros de consulta para el alumno.

Burchardt, A. et. al. (2017): “A Linguistic Evaluation of Rule-Based, Phrase-Based, and Neural MT Engines”. The Prague Bulletin of Mathematical Linguistics, June 2017 (108), pp. 159-170. https://ufal.mff.cuni.cz/pbml/108/art-burchardt-macketanz-dehdari-heigold-peter-williams.pdf

Casacuberta Nolla, F. y Peris Abril, A. (2017): “Traducción automática neuronal”, Revista Tradumàtica, 15 , pp. 66-74. http://revistes.uab.cat/tradumatica/article/viewFile/n15-casacuberta-peris/pdf_48

Isaac Caswell and Bowen Liang (2020): Recent Advances in Google Translate. [Mensaje en un blog] Google AI Blog. En línea: https://ai.googleblog.com/2020/06/recent-advances-in-google-translate.html

Cho, Kyunghyun (2015a): Introduction to Neural Machine Translation with GPUs (part 1). [Mensaje en un blog] NVIDIA Developer Blog. 27 de Mayo de 2015. En línea: https://devblogs.nvidia.com/introduction-neural-machine-translation-with-gpus/

Cho, Kyunghyun (2015b): Introduction to Neural Machine Translation with GPUs (part 2). [Mensaje en un blog] NVIDIA Developer Blog. 14 de Junio 2015. En línea: https://developer.nvidia.com/blog/introduction-neural-machine-translation-gpus-part-2/

Cho, Kyunghyun (2015c): Introduction to Neural Machine Translation with GPUs (part 3). [Mensaje en un blog]. 26 de Junio de 2015. En línea: https://developer.nvidia.com/blog/introduction-neural-machine-translation-gpus-part-3

Forcada, M. L. (2017): “Making sense of neural machine translation”. Translation Spaces 6:2 pp. 291–309. http://www.dlsi.ua.es/~mlf/docum/forcada17j2.pdf

Forcada, M. L. (2019): Traducción automática neural: cómo funciona y qué se puede esperar de ella. [Diapositivas]. Departamento de Lenguajes y Sistemas, Universidad de Alicante. En línea: https://www.dlsi.ua.es/~mlf/tmp/forcada_torrejuana.pdf

Koehn, P. y Knowles, R. (2017): Six Challenges for Neural Machine Translation, Proceedings of the First Workshop on Neural Machine Translation. (p. 28–39). Vancouver: Association for Computational Linguistics. En línea: https://www.aclweb.org/anthology/W17-3204.pdf

Hu, Ke; Cadwell, Patrick (2016): “A Comparative Study of Post-editing Guidelines”. Baltic J. Modern Computing, (4)2, pp. 346-353. http://doi.org/10.13140/RG.2.1.2253.1446

Koehn, P. (2017): Neural Machine Translation, arXiv:1709.07809v1

Mesa-Lao, Bartolomé (2013): "Introduction to Post-Editing: The CasMaCat GUI". SEECAT Project.

Neubig, Graham (2017): Neural Machine Translation and Sequence-to-sequence Models: A Tutorial. arXiv:1703.01619

O'Brien, Sharon (2012): "Towards a Dynamic Quality Evaluation Model for Translation". JoSTrans. The Journal of Specialised Translation, 17. En línea: http://www.jostrans.org/issue17/art_obrien.php.

Peris, A. (2018): Is Attention All You Need? [Diapositivas]. Universitat Politècnica de València. En línea: https://www.prhlt.upv.es/aigaion2/attachments/Transformer.pdf-54651af972703d4b1443fc03a8a9e9a6.pdf

Rico, Celia (2012): "A Flexible Decision Tool for Implementing Post-editing Guidelines". Localisation Focus. The International Journal of Localisation, 11 (1), pp. 54-66. En línea: http://www.localisation.ie/sites/default/files/resources/locfocus/issues/LocalisationFocusVol11Issue1_online_0.pdf

Sánchez-Gijón, P. (2016): “La Posedición : Hacia Una Definición Competencial Del Perfil y Una Descripción Multidimensional Del Fenómeno.” Sendebar 27: 151–62.

Sato, K. (2016): Understanding neural networks with TensorFlow Playground. [Mensaje en un blog]. Google Cloud Blog. En línea: https://cloud.google.com/blog/products/gcp/understanding-neural-networks-with-tensorflow-playground

Steinberger Ralf, Mohamed Ebrahim, Alexandros Poulis, Manuel Carrasco-Benitez, Patrick Schlüter, Marek Przybyszewski & Signe Gilbro (2014). An overview of the European Union's highly multilingual parallel corpora. Language Resources and Evaluation Journal (LRE). December 2014, Volume 48, Issue 4, pp 679-707. DOI: 10.1007/s10579-014-9277-0.

Svoboda, T. (2018): The state of the (trade and) art in translation: PEMT automation, MT, and the future. In European Union, European Parliament, Translation services in the digital world. A sneak peek into the (near) future, pp. 106-119, Luxembourg..

TAUS (2013): "Pautas para la postedición de traducción automática". Trad.: iDISC. Thinktank/Resources/Best Practices. En línea: https://www.taus.net/think-tank/best-practices/postedit-best-practices/machine-translation-post-editing-guidelines-spanish.

Torres, J. (2019): Deep Learning: introducción práctica con Keras. Primera parte. Lulu Press. Versión en línea: https://torres.ai/deep-learning-inteligencia-artificial-keras/

Shuoheng Yang, Yuxin Wang, Xiaowen Chu (2020): A Survey of Deep Learning Techniques for Neural Machine Translation. arXiv:2002.07526

Jiajun Zhang and Chengqing Zong (2020): Neural Machine Translation: Challenges, Progress and Future. arXiv:2004.05809

Otras referencias bibliográficas, electrónicas o cualquier otro tipo de recurso.

Alcina, Amparo; Sánchez Gijón, Pilar, eds. (2017): Número especial: "Traducción automática: estado de la cuestión". Tradumàtica, 15. En línea: http://revistes.uab.cat/tradumatica/issue/view/n15

M. X. Chen, O. Firat, A. Bapna, M. Johnson, W. Macherey, G. Foster, L. Jones, N. Parmar, M. Schuster, Z. Chen, Y. Wu, M. Hughes (2018): The Best of Both Worlds: Combining Recent Advances in Neural Machine TranslationarXiv:1804.09849

Denny Britz, Anna Goldie, Minh-Thang Luong, Quoc Le: Massive Exploration of Neural Machines Translations Architectures. arXiv:1703.03906

Jakob Uszkoreit (2017): Transformer: A Novel Neural Network Architecture for Language Understanding. [Mensaje en un blog] Google AI Blog. 31 Agosto 2017. En línea: https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html

Wu, Yonghui; Schuster, Mike; Chen, Zhifeng; et al. (2016): Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation. arXiv:1609.08144

Vieira, Lucas Nunes; Alonso, Elisa; Bywood, Lindsay (eds.) (2019) Número especial: " Post-Editing in Practice: Process, Product and Networks". The Journal of Specialised Translation, 31. http://jostrans.org/issue31/issue31_toc.php

Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin (2017): Attention Is All You Need. arXiv:1706.03762

10. Evaluación

Consideraciones generales.

Se valorará la consecución de las competencias anteriormente indicadas, manteniendo un equilibrio entre aspectos conceptuales, instrumentales y de autorreflexión.

Criterios de evaluación.

  • Realización de tareas en casa y de ejercicios prácticos en la clase.
  • Debate oral y/o  escrito sobre lecturas introductorias y temas concretos.
  • Demostración del dominio de técnicas y conceptos teórico-prácticos

Instrumentos de evaluación.

Primera convocatoria:

  • Tareas trabajo individual y prácticas de clase (50%)
  • Seminarios, control de lecturas y/o trabajos y/o exposiciones (25%)
  • Pruebas escritas y cuestionarios (25%)

Segunda convocatoria:

Los estudiantes que no asistieron continuadamente a clase (por tanto, no entregaron al menos el 75% de las prácticas de clase) serán evaluados con estos criterios en la segunda convocatoria:

  • Prueba escrita y/o práctica: 75%
  • Control de lecturas: 25%

Recomendaciones para la evaluación.

 

Asistencia activa a clases: realización de prácticas

Seguimiento continuado de las lecturas, tareas y experimentación autónomas.

La presentación copiada total o parcialmente de alguno de los trabajos destinados a la evaluación supondrá el suspenso automático en la asignatura y la imposibilidad de recuperarla.

Recomendaciones para la recuperación.

Las mismas que para la evaluación.

11. Organización docente semanal