Ayuda
Ir al contenido

Dialnet


Resumen de Pensamiento computacional y ChatGPT

Guillermo de Jesús Hoyos Rivera, José Clemente Hernández Hernández

  • español

    Con el advenimiento de los modelos de procesamiento del lenguaje natural, forma en que solemos referirnos al lenguaje humano, de tipo Large Language Models (LLM), como Bidirectional Encoder Representations from Transformers (BERT), Language Model for Dialogue Applications (LaMDA), Large Language Model Meta Artificial Intelligence (LLaMA), o el tan nombrado Generative Pre-trained Transformers (GPT), se comienzan a generar entre sus usuarios, y el público en general, cualquier cantidad de especulaciones y expectativas acerca de sus alcances, y se comienzan también a explorar nuevas formas de uso, algunas realistas, otras creativas, y otras rayando en la fantasía. El Pensamiento Computacional no es la excepción en esta tendencia. Ésta es la razón por la cual es de suma importancia tratar de elaborar una visión clara acerca de esta innovadora tecnología, buscando evitar la creación y propagación de mitos, que lo único que hacen es enrarecer la percepción y comprensión que se tiene, y tratar de hallar el justo medio en cuanto a los alcances que pueden tener este tipo de tendencias tecnológicas, y las formas de uso que se les puede dar, con especial énfasis en el Pensamiento Computacional. En el presente artículo presentamos un breve análisis sobre lo que es Generative Pre-trained Transformer, así como algunas reflexiones e ideas sobre las formas en que los Large Language Models pueden influir al Pensamiento Computacional, y sus posibles consecuencias. En especial, en este documento, se analiza el conocido ChatGPT, del cual se presenta una valoración sobre las salidas de texto generadas, y su credibilidad para su uso en tareas de uso común para el Pensamiento Computacional, como lo es el realizar un algoritmo, su código y resolver problemas lógicos.

  • English

    With the advent of natural language processing models, the way we usually refer to human language, of Large Language Models (LLM) type, such as Bidirectional Encoder Representations from Transformers (BERT), Language Model for Dialogue Applications (LaMDA), Large Language Model Meta Artificial Intelligence (LLaMA), or the so called Generative Pre-trained Transformers (GPT), users and the general public are beginning to generate any number of speculations and expectations about how far thy can go, and are also starting to explore new ways of use, some realistic, others creative, and others verging on fantasy. Computational Thinking is no exception to this trend. This is why it is of utmost importance to try to elaborate a clear vision about this innovative technology, seeking to avoid the creation and propagation of myths, which only make the perception and understanding that we have, and to try to find the right balance in terms of the reaches that can have this type of technological trends, and the ways of use that can be given to them, with special emphasis on Computational Thinking. In this paper we present a brief analysis of what Generative Pre-trained Transformer is, as well as some reflections and ideas about the ways in which Large Language Models can influence Computational Thinking, and their possible consequences. In particular, in this paper, we analyze the well-known ChatGPT, presenting an evaluation of the generated text outputs, and its credibility for its use in tasks of common use for Computational Thinking, such as performing an algorithm, its code and solving logical problems.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus