Голосовая система оценки ответов для учащихся с ограниченными физическими возможностями, использующих обработку естественного языка и машинное обучение
https://doi.org/10.17586/2226-1494-2023-23-2-299-303
Аннотация
В современном образовательном процессе возникает потребность в автоматизации систем оценки ответов. Задача проверяющего усложняется при анализе теоретических ответов, так как их онлайн-оценка доступна только для вопросов с несколькими вариантами ответов. Преподаватель тщательно изучает ответ, прежде чем поставить соответствующую оценку. Для изучения ответов существующий подход требует дополнительных сотрудников и времени. В работе представлено приложение, основанное на оценке ответов с использованием обработки естественного языка и машинного обучения, которое включает голосовую подсказку для слабовидящих учащихся. Приложение автоматизирует процесс проверки субъективных ответов, рассматривая извлечение текста и признаков, а также классификацию баллов. Мерами оценки являются сходства: Term Frequency Inverse Document Frequency (TF-IDF), векторов, ключевых слов и грамматики, которые рассматриваются для определения общего сходства между результатом учителя и оценкой системы. Полученные результаты показали, что система оценивает ответы с точностью 95 %. Предлагаемая методика предназначена для оценки результатов экзаменов учащихся, не умеющих писать, но умеющих говорить. Применение разработанного приложения позволит сократить затраты труда и времени преподавателя за счет сокращения ручного труда.
Об авторах
М. ТалорИндия
Талор Минакши — PhD, доцент
Пуне, 411001
sc 57190340673
П. Мане
Индия
Мане Прадип — PhD, руководитель
Пуне, 411001
sc 36450914400
Список литературы
1. Abhishek Girkar, Mohit Khambayat, Ajay Waghmare, Supriya Chaudhary. Subjective answer evaluation using natural language processing and machine learning // International Research Journal of Engineering and Technology (IRJET). 2021. V. 8. N 4. P. 5040–5043.
2. Shweta M. Patil, Sonal Patil. Evaluating student descriptive answers using natural language processing // International Journal of Engineering Research & Technology (IJERT). 2014. V. 3. N 3. P. 1716–1718.
3. Mercy R.A. Automated explanatory answer evaluation using machine learning approach // Design Engineering (Toronto). July 2021.
4. Lakshmi V., Ramesh V. Evaluating students’ descriptive answers using natural language processing and artificial neural networks // IJCRT. 2017. V. 5. N 4. P. 3168–3173.
5. Mittal H., Devi M.S. Computerized evaluation of subjective answers using hybrid technique // Advances in Intelligent Systems and Computing. 2016. V. 413. P. 295–303. https://doi.org/10.1007/978-981-10-0419-3_35
6. Sakhapara A., Pawade D., Chaudhari B., Gada R., Mishra A. Bhanushali S. Subjective answer grader system based on machine learning // Advances in Intelligent Systems and Computing. 2019. V. 898. P. 347–355. https://doi.org/10.1007/978-981-13-3393-4_36
7. Mahmud T.A., Hussain M.G., Kabir S., Ahmad H., Sobhan M. A keyword based technique to evaluate broad question answer script // Proc. of the 9th International Conference on Software and Computer (ICSCA). 2020. P. 167–171. https://doi.org/10.1145/3384544.3384604
8. Bano S., Jithendra P., Niharika G.L., Sikhi Y. Speech to text translation enabling multilingualism // Proc. of the IEEE International Conference for Innovation in Technology (INOCON). 2020. https://doi.org/10.1109/inocon50539.2020.9298280
9. Bhatia M.S., Aggarwal A., Kumar N. Speech-to-text conversion using GRU and one hot vector encodings // Palarch’s Journal of Archaeology of Egypt/Egyptology. 2020. V. 17. N 9. P. 8513–8524.
10. Johri E., Dedhia N., Bohra K., Chandak P., Adhikari H. ASSESS automated subjective answer evaluation using semantic learning // Proc. of the 4th International Conference on Advances in Science & Technology (ICAST2021). 2021. http://dx.doi.org/10.2139/ssrn.3861851
11. Deotare S., Khan R.A. Automatic online subjective text evaluation using text mining // International Journal of Recent Technology and Engineering (IJRTE). 2019. V. 8. N 2. P. 1238–1242. https://doi.org/10.35940/ijrte.I8725.078219
12. Bahel V., Thomas A. Text similarity analysis for evaluation of descriptive answers // arXiv. 2021. arXiv:2105.02935. https://doi.org/10.48550/arXiv.2105.02935
13. Meenakshi Anurag T., Pradeep B.M., Vishaka M. Web app for quick evaluation of subjective answers using natural language processing // Научно-технический вестник информационных технологий, механики и оптики. 2022. Т. 22. № 3. С. 594–599. https://doi.org/10.17586/2226-1494-2022-22-3-594-599
14. Mandge V.A., Thalor M.A. Revolutionize cosine answer matching technique for question answering system // Proc. of the International Conference on Emerging Smart Computing and Informatics (ESCI). 2021. P. 335–339. https://doi.org/10.1109/ESCI50559.2021.9396864
15. Rish I. An empirical study of the naïve bayes classifier // IJCAI Work Empir Methods Artificial Intelligence. V. 3. 2001.
Рецензия
Для цитирования:
Талор М., Мане П. Голосовая система оценки ответов для учащихся с ограниченными физическими возможностями, использующих обработку естественного языка и машинное обучение. Научно-технический вестник информационных технологий, механики и оптики. 2023;23(2):299-303. https://doi.org/10.17586/2226-1494-2023-23-2-299-303
For citation:
Thalo M., Mane P. Voice based answer evaluation system for physically disabled students using natural language processing and machine learning. Scientific and Technical Journal of Information Technologies, Mechanics and Optics. 2023;23(2):299-303. https://doi.org/10.17586/2226-1494-2023-23-2-299-303