Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana

Cristián Noemi Padilla, Cristián Santibáñez

Resumen

El desarrollo de la inteligencia artificial (IA) ha abierto una nueva discusión sobre la capacidad lingüística de esta tecnología y su potencial impacto en todas las dimensiones de la actividad humana (Brynjolfsson y McAfee, 2014). A fin de evaluar
similitudes o diferencias entre la capacidad lingüística de la IA y la humana, este trabajo analiza específicamente el comportamiento argumentativo en términos de los puntos de vista que adopta Chat GPT, versión 3.5, frente a una situación controversial expresada en un dilema moral del Cuestionario D.I.T. (Rest, 2013) y se compara con una muestra similar de adultos humanos (Noemi, 2019), sometida a la misma tarea discursiva.


La investigación siguió un estudio comparativo de casos múltiples (Flick, 2020) a través de una metodología mixta (Johnson y Onwuegbuzie, 2004), que combinó un enfoque cuantitativo con uno cualitativo.


Los resultados muestran que el 100% de la muestra de IH emite un punto de vista (a favor o en contra), mientras que de la muestra producida por el Chat GPT, sólo el 23,4% lo hace. Los resultados animan a pensar que las diferencias encontradas se podrían explicar por la debilidad de la IA de ser sensible al contexto (falta de una competencia pragmática relevante) y la inexistencia de un proceso de autoimplicación para enfrentar tareas de razonamiento moral.

Citas

Apperly, I. (2010). The Cognitive Basis of “Theory of Mind”. London: Psychology Press. https://doi.org/10.4324/9780203833926
Aristóteles. (2006). Ética a Nicómaco. Buenos Aires: Gradifco.
Barattieri Di San Pietro, C., Frau, F., Mangiaterra, V., & Bambini, V. (2023). The pragmatic profile of ChatGPT: Assessing the communicative skills of a conversational agent. En Multidisciplinary perspectives on ChatGPT and other Artificial Intelligence
Models” / Focus monografico “Prospettive multidisciplinari su ChatGPT e altri modelli di intelligenza artificiale. Sistemi Intelligenti. https://doi.org/10.31234/osf.io/ckghw
Baron-Cohen, S., Leslie, A., & Frith, U. (1985). Does the autistic child have a “theory of mind”? Cognition, 21(1), 37-46.
doi: 0.1016/0010-0277(85)90022-8
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Proceedings of the 2021
ACM Conference on Fairness, Accountability, and Transparency, 610-623. https://doi.org/10.1145/3442188.3445922
Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D. M., Wu, J., Winter, C., & Amodei, D. (2020). Language Models are Few-Shot Learners (arXiv:2005.14165). arXiv. http://arxiv.org/abs/2005.14165
Brunet-Gouet, E., Vidal, N., & Roux, P. (2023). Can a conversational agent pass theory-ofmind tasks? A case study of ChatGPT with the Hinting, False Beliefs, and Strange Stories paradigms. https://doi.org/10.5281/ZENODO.8009748
Brynjolfsson, E., & McAfee, A. (2014). The second machine age: Work, progress, and prosperity in a time of brilliant technologies. W W Norton & Co.
Catani, M. & Bambini V. (2014). A model for Social Communication And Language Evolution and Development. Current Opinion in Neurobiology, 28: 165–171. http://dx.doi.org/10.1016/j.conb.2014.07.018
Chomsky, N. (2006). Language and mind. Cambridge University Press.
Christidi F., Migliaccio, R., Santamaría-García, H., Santangelo, G., & Trojsi, F. (2018). Social Cognition Dysfunctions in Neurodegenerative Diseases: Neuroanatomical Correlates and Clinical Implications. Behav Neurol. doi: 10.1155/2018/1849794. PMID: 29854017; PMCID: PMC5944290. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5944290/
Decety, J., & Jackson, P. L. (2004). The functional architecture of human empathy. Behavioral and Cognitive Neuroscience Reviews, 3(2), 71-100. DOI: 10.1177/1534582304267187
Descartes, R. (2011). El Discurso del Método. Alianza Editorial.
De Waal, F. (2005). A century of getting to know the chimpanzee. Nature, 437: 56-59. https://doi.org/10.1038/nature03999
Firbas, J. (1992). Functional sentence perspective in written and spoken communication. Cambridge: Cambridge University Press.
Flick, U. (2020). Introducing research methodology. Sage.
Frith, C. D., & Frith, U. (2003). Development and neurophysiology of mentalizing. Philosophical Transactions of the Royal Society B: Biological Sciences, 358(1431), 459-473. DOI: 10.1098/rstb.2002.1218
Genette, G. (1980). Narrative Discourse. Cornell University Press.
Goodman. N. & Frank, M. (2016). “Pragmatic Language Interpretation as Probabilistic Inference”. Trends in cognitive Sciences, 20, 818-829.
Grice, P. (1975). “Lógica y Conversación”. En Valdés, L. (Ed.) La búsqueda del significado. Madrid, Tecnos, 511-530.
Hammer, L y Noemi, C. (2015) Relación entre pensamiento crítico y complejidad discursiva en estudiantes universitarios. Onomázein, 32, 184-197.
Haraway, D. (1988). “Situated Knowledges: The Science Question in Feminism and the Privilege of Partial Perspective.” Feminist Studies, 14, 3, 575-599.
Heyes, C. & Frith, C. (2014). The cultural evolution of mind reading. Science 344. doi:10.1126/science.1243091.
Johnson, R., & Onwuegbuzie, A. (2004). Mixed Methods Research: A Research Paradigm Whose Time Has Come. Educational Researcher, 33: 14-26.
Kohlberg, L. (1981). The Philosophy of Moral Development: Moral Stages and the Idea of Justice. Harper & Row.
Kosinski, M. (2023) Theory of Mind Might Have Spontaneously Emerged in LargeLanguage Models. rXiv:2302.02083v5https://doi.org/10.48550/arXiv.2302.02083
Kovacs, A., E. Teglas, E. & Endress, A. (2010). The social sense: Susceptibility to others’ beliefs in human infants and adults. Science, 330, 6012: 1830-1834. DOI: 10.1126/science.1190792
Loconte, R., Orrù, G., Tribastone, M., Pietrini, P., & Sartori, G. (2023). Challenging ChatGPT «Intelligence» with Human Tools: A Neuropsychological Investigation on Prefrontal Functioning of a Large Language Model [Preprint]. SSRN.
https://doi.
org/10.2139/ssrn.4377371
Mahowald, K., Ivanova, A. A., Blank, I. A., Kanwisher, N., Tenenbaum, J. B., &
Fedorenko, E. (2023). Dissociating language and thought in large language models
(arXiv:2301.06627). arXiv. http://arxiv.org/abs/2301.06627
Nagel, T. (1986). The View from Nowhere. Oxford University Press.
Noemi, C. (2013). Aproximación teórica a la noción de complejidad argumentativa.
Logos: revista de lingüística, filosofía y literatura, 22, 2, 256-271.
Noemi, C. (2019). Punto de vista y estructura discursiva argumental en adultos mayores. Pragmalingüística, 27, 256-367.
Noemi, C. e Iglesias, R. (2019). Estrategias cognitivo-emocionales y densidad argumentativa. RLA. Revista de Lingüística Teórica y Aplicada, 57, 1, 161-179.
Pepperberg, I., Vicinay, J., & Cavanagh, P. (2008). Processing of the Müller-Lyer illusion by a grey parrot (Psittacus erithacus). Perception, 37, 5: 765-781. doi: 10.1068/p5898. PMID: 18605149.
Perry, J. (2002). Identity, Personal Identity, and the Self. Hackett Publishing Company.
Quintiliano, M. (1916). Instituciones oratorias. Librería de Perlado y Páez.
Rest, W. (2013). Cuestionario de Problemas Socio- morales D.I.T. Madrid: Darwf.
Sap, M., Le Bras, R., Fried, D., & Choi, Y. (2022). Neural Theory-of-Mind? On the Limits of Social Intelligence in Large LMs. Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, 3762-3780. https://doi.org/10.18653/v1/2022.emnlp-main.248
Saussure, F. (1945). Curso de lingüística general. Editorial Losada.
Savage-Rumbaugh, S., Shanker, S., & Taylor, T. (1998). Apes, language, and the human mind. Oxford University Press.
Saxe, R., & Kanwisher, N. (2003). People thinking about thinking people. The role of the temporo-parietal junction in “theory of mind”. NeuroImage, 19, 4, 1835-1842. DOI: 10.1016/S1053-8119(03)00230-1
Schramowski, P., Turan, C., Andersen, N., Rothkopf, C. A., & Kersting, K. (2022). Large Pre-trained Language Models Contain Human-like Biases of What is Right and Wrong to Do (arXiv:2103.11790). arXiv. http://arxiv.org/abs/2103.11790
Sperber, D. & Wilson, D. (1995.) Relevance. Communication and Cognition. Oxford: Blackwell.
Tversky, A., & Kahneman, D. (1981). The Framing of Decisions and the Psychology of Choice. Science, 211(4481), 453-458.
Van Eemeren, F., & Grootendorst, R. (2004). A Systematic Theory of Argumentation: The Pragma-dialectical Approach. Cambridge: Cambridge University Press.
Wei, J., Tay, Y., Bommasani, R., Raffel, C., Zoph, B., Borgeaud, S., Yogatama, D., Bosma, M., Zhou, D., Metzler, D., Chi, E. H., Hashimoto, T., Vinyals, O., Liang,
P., Dean, J., & Fedus, W. (2022). Emergent Abilities of Large Language Models (arXiv:2206.07682). arXiv. http://arxiv.org/abs/2206.07682
Wittgenstein, L. (2002). Tractatus lógico-philosophicus. Madrid, Tecnos.
Young, L., Cushman, F., Hauser, M., & Saxe, R. (2007). The neural basis of the interaction between theory of mind and moral judgment. Proceedings of the National Academy of Sciences, 104, 20, 8235-8240. https://doi.org/10.1073/pnas.0701408104

Autores/as

Cristián Noemi Padilla
cnoemi@userena.cl ( Contacto principal )
Cristián Santibáñez
Noemi Padilla, C. ., & Santibáñez , C. . (2024). Comportamiento argumentativo del ChatGPT 3.5: similitudes y diferencias con la práctica argumentativa humana. Logos: Revista De Lingüística, Filosofía Y Literatura, 34(1). https://doi.org/10.15443/RL3402

Detalles del artículo