Un corpus de oraciones para el análisis de emociones en estudiantes mediante algoritmos de inteligencia artificial
DOI:
https://doi.org/10.22201/cepe.14059134e.2025.26.35.479Palabras clave:
deResumen
El reconocimiento de las emociones desempeña un papel crucial dentro de las aulas tradicionales, ya que facilita una mejor comprensión de los comportamientos del estudiantado y permite implementar estrategias pedagógicas más efectivas. Aunque en los últimos años el reconocimiento de emociones mediante inteligencia artificial (IA) ha mostrado avances significativos (Kalateh et al., 2024; Hashem et al., 2023), en México este campo aún se considera emergente, principalmente por la escasa atención a las particularidades lingüísticas y culturales de los hispanohablantes. Mares et al. (2025) evidencian esta limitación al identificar únicamente siete conjuntos de datos en español para el análisis del campo afectivo, lo que restringe tanto el desarrollo como la precisión de modelos robustos en este ámbito. Un problema que destaca es la ausencia de conjuntos de datos que reflejen cómo la comunidad estudiantil mexicana expresa emociones en inglés, lo que revela una brecha significativa en la representación cultural y lingüística en las investigaciones de IA. Ante esta situación, se desarrolló un software destinado a la creación de un corpus de oraciones con distintas emociones. El proceso de construcción del corpus se dividió en dos fases principales: 1) la selección y definición del conjunto de oraciones en inglés y 2) la grabación de oraciones pronunciadas en inglés con seis emociones diferentes. En este experimento participaron 53 estudiantes universitarios del sureste de México, quienes aportaron grabaciones que sirvieron como base para entrenar modelos de IA. Los resultados del estudio demuestran que es posible desarrollar modelos capaces de clasificar emociones en inglés a partir de archivos de voz generados por hablantes de español. Además, el análisis de las oraciones recopiladas permitió identificar características acústicas clave que diferencian las seis categorías emocionales, mostrando la importancia de esta metodología para mejorar la comprensión de emociones en contextos multilingües.
Referencias
Abdul, Z. K. y Al-Talabani, A. K. (2022). Mel frequency cepstral coefficient and its applications: A review. Ieee Access, 10, 122136-122158.
Ashraf, M. R., Jana, Y., Umer, Q., Jaffar, M. A., Chung, S. y Ramay, W. Y. (2023). BERT-based sentiment analysis for low-resourced languages: A case study of Urdu language. IEEE Access, 11.
http://dx.doi.org/10.1109/ACCESS.2023.3322101
Aljuhani, R. H., Alshutayri, A. y Alahdal, S. (2021). Arabic Speech Emotion Recognition from Saudi Dialect Corpus. IEEE Access, 9, 127081-127085.
https://doi.org/10.1109/ACCESS.2021.3110992
Althari, G. y Alsulmi, M. (2022). Exploring Transformer-Based Learning for Negation Detection in Biomedical Texts. IEEE Access, 10, 83813-83825.
https://doi.org/10.1109/ACCESS.2022.3197772
Amjad, M., Ashraf, N., Zhila, A., Sidorov, G., Zubiaga, A. y Gelbukh, A. (2021). Threatening language detection and target identification in Urdu tweets. IEEE Access, 9, 128302-128313.
Antoniou, N., Katsamanis, A., Giannakopoulos, T. y Narayanan, S. (2023). Designing and evaluating speech emotion recognition systems: A reality check case study with IEMOCAP. In ICASSP 2023-2023 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) (pp. 1-5). IEEE.
Cao, H., Cooper, D.G., Keutmann, M.K., Gur, R.C., Nenkova, A. y Verma, R. (2014). Crema-d: Crowd-sourced emotional multimodal actors dataset. IEEE Trans. Affect. Comput. 5 (4), 377–390
Egger, M., Ley, M. y Hanke, S. (2019). Emotion recognition from physiological signal analysis: A review. Electronic Notes in Theoretical Computer Science, 343, 35-55.
Gonzalez-Gomez, L. J., Hernandez-Munoz, S. M., Borja, A., Azofeifa, J. D., Noguez, J. y Caratozzolo, P. (2024). Analyzing Natural Language Processing Techniques to Extract Meaningful Information on Skills Acquisition from Textual Content. IEEE Access, 12, 139742-139757.
https://doi.org/10.1109/ACCESS.2024.3465409
Hashem, A., Arif, M. y Alghamdi, M. (2023). Speech Emotion Recognition Approaches: A Systematic Review. Speech Communication, 154.
Kalateh, S., Estrada-Jimenez, L. A., Nikghadam-Hojjati, S. y Barata, J. (2024). A Systematic Review on Multimodal Emotion Recognition: Building Blocks, Current State, Applications, and Challenges. IEEE Access, 12, 103976-104019.
https://doi.org/10.1109/ACCESS.2024.3430850
Kim, C.-G., Hwang, Y.-J. y Kamyod, C. (2022). A Study of Profanity Effect in Sentiment Analysis on Natural Language Processing Using Ann. Journal of Web Engineering, 21(3), 751-766.
https://doi.org/10.13052/jwe1540-9589.2139
Laserna, M. S. y Torres, V. Á. (2022). ¿De qué hablamos cuando divulgamos sobre lingüística? Análisis de un corpus de textos divulgativos y aplicaciones al estudio terminológico de la semántica léxica. ELUA Estudios de Lingüística Universidad de Alicante, (38), 73-98.
https://doi.org/10.14198/elua.22384
Mares, A., Diaz-Arango, G., Perez-Jacome-Friscione, J., Vazquez-Leal, H., Hernandez-Martinez, L., Huerta-Chua, J. y Dominguez-Chavez, A. (2025). Advancing Spanish Speech Emotion Recognition: A Comprehensive Benchmark of Pre-Trained Models. Applied Sciences, 15(8), 4340.
Meftah, A. H., Qamhan, M. A., Seddiq, Y., Alotaibi, Y. A. y Selouani, S. A. (2021). King Saud University emotions corpus: construction, analysis, evaluation, and comparison. IEEE Access, 9, 54201-54219.
Mifrah, S., y Benlahmar, E. H. (2022). Sentence-Level Sentiment Classification A Comparative Study Between Deep Learning Models. Journal of ict Standardization, 10(2), 339-352.
https://doi.org/10.13052/jicts2245-800X.10213
Nassif, A. B., Shahin, I., Attili, I., Azzeh, M. y Shaalan, K. (2019). Speech recognition using deep neural networks: A systematic review. IEEE Access, 7, 19143-19165.
Nasution, A. H. y Onan, A. (2024). ChatGPT Label: Comparing the Quality of Human-Generated and LLM-Generated Annotations in Low-Resource Language NPL Tasks. IEEE Access, 12, 71876-71900.
https://doi.org/10.1109/ACCESS.2024.3402809
Parry, J., Palaz, D., Clarke, G., Lecomte, P., Mead, R., Berger, M. y Hofer, G. (2019, September). Analysis of Deep Learning Architectures for Cross-Corpus Speech Emotion Recognition. Interspeech (1656-1660).
Russell, J. A. (1980). A Circumplex Model of Affect. Journal of Personality and Social Psychology, 39(6), 1161.
Rzayeva, Z. y Alasgarov, E. (2019). Facial emotion recognition using convolutional neural networks. En 2019 IEEE 13th international conference on application of information and communication technologies (AICT) (pp. 1-5). IEEE.
Sen, O., Fuad, M., Islam, Md. N., Rabbi, J., Masud, M., Hasan, Md. K., Awal, Md. A., Ahmed Fime, A., Hasan Fuad, Md. T., Sikder, D. y Raihan Iftee, Md.A. (2022). Bangla Natural Language Processing: A Comprehensive Analysis of Classical, Machine Learning, and Deep Learning-Based Methods. IEEE Access, 10, 38999–39044.
https://doi.org/10.1109/ACCESS.2022.3165563
Shen, P., Changjun, Z. y Chen, X. (2011, August). Automatic speech emotion recognition using support vector machine. En Proceedings of 2011 international conference on electronic & mechanical engineering and information technology. IEEE, vol. 2, pp. 621-625
Shim, M., Jin, M. J., Im, C. y Lee, S. (2019). Machine-learning-based classification between post-traumatic stress disorder and major depressive disorder using P300 features. NeuroImage Clinical, 24, 102001.
https://doi.org/10.1016/j.nicl.2019.102001
Sultana, S., Rahman, M. S., Selim, M. R. y Iqbal, M. Z. (2021). SUST Bangla Emotional Speech Corpus (SUBESCO): An audio-only emotional speech corpus for Bangla. PLoS ONE, 16(4), e0250173.
https://doi.org/10.1371/journal.pone.0250173
Traunmüller, H., y Eriksson, A. (1995). The frequency range of the voice fundamental in the speech of male and female adults. Manuscrito no publicado.
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., y Polosukhin, I. (2017). Attention is all you need. In I. Guyon, U. Von Lux- burg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, y R. Garnett (Eds.), Advances in Neural Information Processing Systems (Vol. 30). Curran Associates, Inc.
Zehra, W., Javed, A. R., Jalil, Z., Khan, H. U. y Gadekallu, T. R. (2021). Cross corpus multi-lingual speech emotion recognition using ensemble learning. Complex & Intelligent Systems, 7(4), 1845-1854.
Zha, D., Bhat, Z. P., Lai, K. H., Yang, F., Jiang, Z., Zhong, S. y Hu, X. (2025). Data-centric artificial intelligence: A survey. ACM Computing Surveys, 57(5), 1-42.
