Análise do Modelo de Avaliação de Proficiência de Estudantes para Testes Adaptativos (inglês)

admin

Authors: Leonardo Guerra de Rezende Guedes, Heitor Melo de Lucas Brandão, Olegário Corrêa Silva Neto, Eugênio Júlio Messala Cândido Carvalho

A evolução da Internet e sua adoção têm transformado e continuam a transformar cada vez mais o contexto humano, e a educação também está inserida nessa situação. Devido a isso, existem ferramentas de apoio ao aluno, como sistemas de avaliação online. Neste trabalho, apresentaremos os resultados da simulação de uma avaliação online feita por um aluno com uma determinada proficiência, com o objetivo de coletar todos os dados relacionados ao desempenho desse aluno – sua nota final – usando a Teoria de Resposta ao Item em duas abordagens para calcular a nota final.

Uma primeira abordagem utiliza a pergunta subsequente como sendo de maior ou menor nível de dificuldade, dependendo da correção da pergunta anterior. E uma segunda abordagem utiliza a pergunta subsequente como sendo de um nível de dificuldade entre o anterior e o máximo ou mínimo, dependendo da correção da pergunta anterior.

Os resultados da simulação foram analisados para diferentes tamanhos de testes e para diferentes proficiências dos respondentes simulados. Após análise multivariada por meio do agrupamento dos resultados pelo método K-means, fica evidente que ambas as abordagens são subótimas para diferentes situações de tamanhos de teste na busca pela nota final mais próxima da proficiência simulada.

Analysis of student’s proficiency evaluation model for adaptive testing

Abstract. The evolution of the Internet and its adoption has transformed and continues to transform the human context more and more, and education is also inserted in this situation. Because of this, there are student support tools, such as online assessment systems. In this work we will present the results of the simulation of an online assessment made by a student with a given proficiency, in order to collect all data regarding the performance of this student – his final grade – using the Item Response theory in two approaches to calculate the final grade. A first approach using the question subsequent to an answer from a higher or lower level of difficulty depending on the correctness of the previous question. And a second using the question subsequent to an answer of a level of difficulty between the previous and the maximum or minimum limit depending on the correctness of the previous question. Simulation results were analyzed for different sizes of tests and for different proficiencies of the simulated respondents. After multivariate analysis of clustering of results by K-means, it appears that both approaches are suboptimal for different situations of test sizes in the search for the final grade closest to the simulated proficiency.

< Baixe o artigo clicando abaixo >

DOI: https://doi.org/10.34117/bjdv6n3-077