@article{Balbachan_Flechas_Maltagliatti_Pensa_Ramírez_2021, title={Modelos de aprendizaje profundo para comprensión de textos y una implementación prototípica de GPT-2 para una tarea específica de generación de lenguaje natural }, volume={2}, url={https://revistas.uncu.edu.ar/ojs3/index.php/analeslinguistica/article/view/5524}, abstractNote={<p>Desde el año 2013, el paradigma conexionista en procesamiento de lenguaje natural (PLN) ha venido resurgiendo en ámbitos académicos a partir de nuevas arquitecturas para luego ser adoptado en la industria de software. Este paradigma hace uso de poderosos recursos de cómputo, en una revolución algorítmica conocida como aprendizaje profundo (<em>Deep Learning</em>). Numerosas y sucesivas propuestas superadoras se han ofrecido en una vertiginosa carrera por obtener métricas (<em>benchmarking</em>) que se acercaran al estado del arte para tareas generales de PNL, según diversos estándares (BLEU, GLUE, SuperGLUE). A partir de 2018, con la revolución de los <em>transformers</em> en los últimos dos años (ELMo, BERT y GPT-2), los modelos de Deep Leaning atrajeron aún más el interés de la comunidad científica, de la industria y de neófitos. En este artículo, proponemos una sucinta pero exhaustiva historización de los modelos que han venido evolucionando durante esta revolucionaria última década y ofrecemos, a modo de ejemplo ilustrativo, una arquitectura de implementación completa de Deep Learning para el modelo de código abierto más reciente GPT-2, entrenado para una tarea específica de generación de slogans comerciales en cualquier segmento de producto.</p>}, number={7}, journal={Anales de Lingüística}, author={Balbachan, Fernando and Flechas, Natalia and Maltagliatti, Ignacio and Pensa, Francisco and Ramírez, Lucas}, year={2021}, month={dic.}, pages={145–174} }