광고
광고
광고
광고
광고
광고
광고
광고
광고
광고
로고

[인공지능으로 학업 점검, 학점수여] 인공지능으로 학생들이 중학교 고등학교 혹은 어떤 특정과목을 공부하고 이해했는지를 점검하고 점수를 준다면, 초개인화교육이 가능해지며 학교 커리큘럼이 사라진다. 학생의 학업 수행을 모니터링하고 예방 조치를 고안하는 인공지능 접근 방식. 말레지안대학교 논문 2021년

박영숙세계미래보고서저자 | 기사입력 2022/10/19 [11:41]

[인공지능으로 학업 점검, 학점수여] 인공지능으로 학생들이 중학교 고등학교 혹은 어떤 특정과목을 공부하고 이해했는지를 점검하고 점수를 준다면, 초개인화교육이 가능해지며 학교 커리큘럼이 사라진다. 학생의 학업 수행을 모니터링하고 예방 조치를 고안하는 인공지능 접근 방식. 말레지안대학교 논문 2021년

박영숙세계미래보고서저자 | 입력 : 2022/10/19 [11:41]

 

학생의 학업 수행을 모니터링하고 예방 조치를 고안하는 인공지능 접근 방식

추상적인

강사가 경험하는 주요 문제는 코스에서 학생들의 학업 진척도를 체계적으로 모니터링하는 것입니다. 학업 성취도가 만족스럽지 못한 학생이 확인되는 순간 강사는 어려움을 겪고 있는 학생에게 추가 지원을 제공하기 위한 조치를 취할 수 있습니다. 사실 현대의 교육 기관은 다양한 출처에서 학생들에 관한 엄청난 양의 데이터를 수집하는 경향이 있지만, 기관은 데이터를 활용하여 명성을 높이고 교육의 질을 향상시키는 새로운 절차를 갈망하고 있습니다. 이 연구는 기계 학습 알고리즘의 효율성을 평가하여 학생의 학업 진척도를 모니터링하고 강의에서 만족스럽지 못한 결과를 얻을 위험이 있는 학생에 대해 강사에게 알려줍니다. 게다가, 예측 모델은 강사가 필요한 예방 절차를 쉽게 준비할 수 있도록 명확한 모양으로 변환됩니다. 우리는 고유한 기계 학습 알고리즘을 사용하여 예측 모델 세트를 개발했습니다. 의사 결정 트리는 다른 모델보다 우수하므로 쉽게 설명할 수 있는 형식으로 추가 변환됩니다. 연구의 최종 결과물은 코스 시작부터 학생들의 성과를 주의 깊게 모니터링하기 위한 일련의 지원 조치와 어려움을 겪고 있는 학생들에게 추가적인 관심을 제공하기 위한 일련의 예방 조치로 바뀝니다.

소개

학생은 교육 기관의 주요 이해 관계자입니다. 교육 기관의 성과는 최고의 품질의 졸업생과 대학원생을 배출하는 데 중요한 역할을 합니다. 현대 교육 기관은 교육 사회에서 질과 명성을 유지하기 위해 노력하고 있습니다. 사실, 기관은 교육의 질에 비해 명성에 더 관심이 있습니다(Norris et al., 2008). 그러나 다양한 정부 및 인증 기관은 교육 기관이 고품질 학습 환경을 유지하도록 보장하고 인증의 구체적인 절차로 인해 기관은 표준을 유지하기 위해 새로운 절차를 계획하고 구현해야 합니다. 예를 들어 미국의 OAAA(Oman Academic Accreditation Authority)와 ABET(Accreditation Board for Engineering and Technology)(Nettleman, 2018 )는 해당 국가의 고급 교육 기관을 보장합니다. 그들의 위치를 ​​유지하기 위해 연구소는 혁신적인 관행을 추구합니다.

교육 기관은 예를 들어 학습 관리 시스템(LMS), 지능형 개인 지도 시스템(ITS) 및 온라인 학습 플랫폼과 같은 새로운 기술을 구현하여 학생들과 학습 환경에 대한 엄청난 양의 데이터를 축적할 수 있도록 합니다(Gašević et al., 2015 ). 데이터에는 학생의 문서, 행동, 평가 도구(시험 등)에서의 성과, 온라인 소셜 포럼과의 상호 작용, 인구 통계 데이터 및 행정 데이터가 포함될 수 있습니다(Khan, 2018 ). 연구소는 수집된 데이터를 최대한 활용하고 의사 결정 방식을 강화하기 위해 혁신적인 관행이 필요합니다. 여러 컴퓨터 기술은 복잡한 자료를 쉽게 이해하고 기억할 수 있도록 개조하는 편의를 제공합니다(Romanenko et al.,2019 ). 데이터 마이닝 알고리즘은 데이터에 탁월한 기술을 적용하고 중요한 정보를 추출합니다(Alabri et al., 2019 ). 머신 러닝은 여러 상황에서 교육 기관을 지원할 수 있는 잠재력을 지닌 도구 중 하나입니다. 기계 학습 알고리즘은 이전 데이터를 사용하고 적절한 정밀도로 이벤트의 가능성을 예측합니다(Khan et al., 2019 ).

기관의 주요 목표는 코스에서 학생의 학업 성취도를 모니터링하고 학업 성취도가 부적절한 학생을 식별하는 것입니다(Khan et al., 2019 ). 강사는 코스 시작 시 학생의 수준을 구분하지 못할 수 있습니다. 그러나 어려움을 겪고 있는 학생이 어떤 수단으로 식별되면 강사는 이를 처리하기 위한 예방 조치를 설계할 수 있습니다. 따라서 학생의 최종 결과를 예측하고 강사가 어려움을 겪는 학생을 돌볼 수 있도록 정교한 예측 모델이 필수적입니다.

여러 예측 모델은 온라인 학습에서 학생의 성과를 모니터링합니다(Umer et al., 2017 ; Yang et al., 2017 ). 예를 들어, 모델(Asogwa & Oladugba, 2015 )은 학기 초에 과정을 중단할 가능성이 더 높은 학생을 식별합니다. 몇몇 저자 는 특히 초보 컴퓨터 언어 프로그래머의 성능을 추적하기 위해 모델을 설계합니다(Costa et al., 2017 ; Khan et al., 2019 ). 수많은 예측 모델이 구현되었습니다(Alfere & Maghari, 2018 ; Asogwa & Oladugba, 2015 ; Jishan et al., 2015 ; Kiu, 2018 ; Lagman et al., 2019 ; Liao et al.,2019년 ; Ma et al., 2018 ; 몬달 & 무케르지, 2018 ; Oladokun et al., 2008 ; Pandey & Taruna, 2016 ) 기계 학습 알고리즘을 학생의 최종 결과를 예측하는 유용한 도구로 백업합니다.

학습은 항상 지역적입니다(Drachsler & Greller, 2012 ). 기존 모델은 지역적 맥락에서만 건설적입니다. 다른 교육 환경에 있는 학생들은 다른 방식으로 반응할 수 있습니다. 이 논문에서는 기계 학습 알고리즘을 사용하여 성적이 좋지 않은 학생을 식별할 수 있는 예측 모델을 개발하고 선택합니다. 모델은 쉽게 설명할 수 있는 모양으로 더욱 변형됩니다. 모델의 궁극적인 결과는 학생의 수행을 주의 깊게 모니터링하기 위한 일련의 지원 조치와 부적절한 학생에게 유용한 일련의 예방 조치로 바뀝니다. 이 연구는 학생의 최종 결과에 영향을 미치는 주요 기능을 식별합니다. 논문은 다음과 같이 구성됩니다. 분파. 문헌 검토인공 지능, 기계 학습 알고리즘에 대한 문헌 검토를 제공하고 여러 학생 수행 예측 모델에 대해 논의합니다. 연구 방법론 섹션에서는 본 연구에 사용된 3단계 방법론을 제공합니다. 섹션  데이터 준비 , 실험 평가 및 모델 구현 에서는 방법론의 각 단계를 자세히 설명합니다. 섹션  모델 실행 및 결과 는 필드 테스트 및 섹션의 결과를 제공합니다. 결론 및 향후 작업 은 미래 목표와 함께 논문을 마칩니다.

문헌 검토

인공 지능(AI)은 컴퓨터가 인간과 유사하게 생각하고 반응할 수 있도록 적절한 지능을 제공하는 것을 열망합니다(Lesinski et al., 2016). 컴퓨터와 달리 인간은 경험을 통해 학습하여 개인의 상황에 따라 지적인 결정을 내릴 수 있습니다. 반면에 컴퓨터는 필요한 작업을 수행하기 위해 인공 알고리즘을 따라야 합니다. 인공 지능은 컴퓨터에 지능을 부여하고 인간처럼 행동할 수 있도록 하는 혁신적인 기술을 모색함으로써 컴퓨터와 인간 사이의 이러한 차이를 줄이는 것을 목표로 합니다. 이 용어는 인간의 고유한 지적 과정에 부여된 시스템을 개발하는 프로젝트에 자주 적용됩니다. AI 응용 프로그램은 별개의 상업, 서비스, 제조 및 농업 산업 내에서 꾸준히 성장하여 더욱 두드러지고 있습니다(Došilović et al., 2018). 미래의 AI 인공물은 인간의 모국어로 인간과 상호작용하고 인간의 움직임과 감정에 적응할 수 있을 것입니다(Lu, 2019 ).

기계 학습은 명시적인 프로그래밍 없이도 경험을 통해 자동으로 학습하고 개선할 수 있는 기능을 갖춘 시스템을 용이하게 하는 AI 응용 프로그램 중 하나입니다(Mitchell et al., 2013 ). 주요 목표는 컴퓨터가 자동으로 학습하고 향후 결정을 내리기 위한 절차를 설정하도록 하는 것입니다(Nilsson, 2014 ). 기계 학습 알고리즘은 미리 정렬된 데이터에서 학습한 다음 보이지 않는 데이터에 대한 결정을 내립니다. 머신 러닝은 지도 학습과 비지도 학습이라는 두 가지 주요 알고리즘 클래스를 사용합니다. 지도 학습은 분류 또는 회귀 알고리즘입니다. 분류 알고리즘은 입력, 출력으로 구성되며 목표는 입력에서 출력으로의 매핑 기능을 식별하는 알고리즘을 적용하는 것입니다(Qazdar et al., 2019). 각 인스턴스는 독립 변수(예측 기능)와 종속 변수(예측 클래스)로 구성됩니다. 알고리즘은 전체 훈련 데이터 세트를 처리하고 데이터에 숨겨진 패턴과 규칙을 식별합니다. 식별된 규칙을 기반으로 구성된 모델은 보이지 않는 인스턴스를 가져와 적절한 클래스로 분류합니다.

가장 널리 사용되는 지도 학습 알고리즘 중 일부는 인공 신경망(ANN), 나이브 베이즈, k-최근접 이웃(k-NN), 지원 벡터 머신 및 의사결정 트리입니다. 인공 신경망(ANN)(Mitchell et al., 2013 )은 생물학적 신경계(Witten et al., 2016 )의 구조적 및 기능적 특징에서 파생됩니다. Naïve Bayes(Domingos & Pazzani, 1997 )는 보이지 않는 데이터 인스턴스를 분류하는 확률의 Bayes 정리를 기반으로 합니다. 주요 가정은 입력 기능이 친숙한 분류와 조건부로 독립적이라는 것입니다. K-NN은 훈련 데이터 세트를 메모리에 저장한 다음 각 인스턴스를 훈련 과정에서 본 인스턴스와 비교합니다(Cunningham & Delany, 2007). Support Vector Machines(Suthaharan, 2016 )는 초평면을 분리하여 n차원 공간에 훈련 인스턴스를 플로팅합니다. 초평면의 각 측면에 있는 인스턴스는 동일한 클래스에 속합니다. 결정 트리는 트리를 구축하는 재귀 기술을 따릅니다(Li et al., 2019 ). 의사 결정 트리는 분류 및 예측을 위한 지배적인 선택이 되도록 하는 몇 가지 기존 기능을 소유하고 있습니다(Sunday et al., 2020 ). 분류 알고리즘과 달리 회귀 알고리즘(예: 선형 회귀)은 훈련 데이터 세트에서 학습하고 연속 응답을 위한 모델을 개발합니다.

비지도 알고리즘은 숨겨진 패턴을 탐색하고 레이블이 지정된 클래스가 없는 입력 데이터로 구성된 데이터 세트에서 추론을 도출합니다. 클러스터링은 가장 일반적인 비지도 학습 알고리즘입니다. 숨겨진 패턴을 식별하고 탐색적 분석을 위한 데이터 클러스터를 만듭니다. 인기 있는 클러스터링 알고리즘에는 k-평균 클러스터링 및 퍼지 클러스터링이 포함됩니다(Kassambara, 2017 ).

머신 러닝 분류 모델은 교육 환경에서 학생들의 성과 예측 모델을 개발하는 데 사용됩니다. 이러한 예측 모델은 여러 학문적 특징을 기반으로 학생의 최종 결과를 예측합니다. 모델의 주요 출력은 불만족스러운 결과로 끝날 가능성이 높은 학생을 식별합니다. 일단 확인되면, 이러한 학생들은 더 많은 보조 상담 메커니즘을 위해 전달될 수 있습니다. 광범위한 기계 학습, 특히 지도 알고리즘이 학생 수행 예측 모델링의 개념을 실행하는 데 사용됩니다. 교육 환경을 위한 기계 학습 모델을 개발하는 동안 몇 가지 문제가 발생합니다. 물론 교육 데이터 세트는 강의실 크기의 제한으로 인해 적은 수의 총 인스턴스로 구성될 수 있습니다. 일반적으로,

학생의 수행 예측을 다루기 위해 다양한 교육적 맥락에서 수많은 모델이 제안되었습니다. Kausar et al. 2020 ) 앙상블 기법을 사용하여 학생의 학기 과정과 최종 결과 간의 관계를 조사했습니다. 실험 평가는 Random Forest 및 Stacking Classifiers를 최고의 정확도로 결론지었습니다. Orong et al. 2020 ) 수정된 유전자 알고리즘(GA)을 사용하여 과도한 기능을 제거하고 결정 트리 알고리즘을 적용하여 약한 학생을 발견함으로써 기관에서 학생 감소를 높이기 위한 간섭 조치를 설계할 수 있습니다. Chen et al. 2018년) 기관의 자동 채점 시스템에서 추출한 일련의 기능을 사용하여 의사 결정 트리 및 선형 회귀 모델을 구축했습니다. 이 연구는 기관이 어려움을 겪고 있는 학생을 인식하고 스마트한 방식으로 자동으로 수업 시간을 할당하는 데 도움이 됩니다. Saa( 2016 )는 학생의 학업 성취도에 영향을 미치는 필수 특성을 발견하기 위해 의사 결정 트리 모델을 제안했습니다. 설문조사를 통해 학생들의 인구통계학적, 학업적, 사회적 행동과 관련된 데이터를 수집하였다. Iatrellis et al. 2020 )은 K-Means 알고리즘이 일관된 클러스터 세트를 생성하고 이후 지도 머신 러닝 알고리즘을 사용하여 학생의 수행을 예측하기 위한 예측 모델을 훈련하는 기계 학습 접근 방식을 제안했습니다. 마에샤와 헨디얀티( 2019 )) 학생이 표준 졸업 기간보다 정시에 또는 늦게 졸업할 것인지 예측하는 모델을 개발했습니다. Kiu( 2018 )는 사회 활동과 학생들의 최종 결과 간의 상관 관계를 조사합니다. 의사 결정 트리가 유용한 도구로 등장했지만 두 요소 간의 약한 상관 관계가 조사되었습니다. Kaunang과 Rotikan( 2018 )은 설문지를 통해 수집된 학생의 인구 통계, 학업 및 가족 배경 특성을 포함하는 데이터에 대해 의사 결정 트리 알고리즘을 기반으로 여러 모델을 생성했습니다. Yousafzai et al. 2020 )은 학생의 과거 성과에 대해 결정 트리 및 회귀 알고리즘을 적용하고 학생의 성적을 예측하는 시스템을 제안했습니다.

결정 트리(Kiu, 2018 ; Pandey & Taruna, 2016 ), 게으른 분류기(Alfere & Maghari, 2018 ), 인공 신경망(Asogwa & Oladugba, 2015 ; Mondal & Mukherjee, 2018 )을 기반으로 하는 여러 모델이 있습니다 . Oladokun et al., 2008 ). Naive Bayes(Jishan et al., 2015 ; Lagman et al., 2019 ) 및 Support Vector Machine(Liao et al., 2019 ; Ma et al., 2018 ).

문헌 검토는 기계 학습 알고리즘이 학생의 최종 결과를 예측하기 위한 모델 개발을 위한 생산적인 도구임을 확인합니다. 기존 모델은 로컬에서 유용하며 단일 코스에 대해 효율적인 결과를 생성합니다. 따라서 우리는 호스트 기관에서 가르치는 과정에 대한 예측 모델을 개발합니다. 이 연구의 목적은 예측 모델을 개발하는 것뿐만 아니라 모델을 이해하기 쉬운 형태로 해석하는 것입니다. 또한 해석은 학생들을 위한 예방 조치로 설명됩니다. 이 모델 구현은 사전 및 사후 모델 실행에 대한 적절한 조치를 제안합니다.

연구 방법론

그림  1이 연구에 사용된 방법론을 보여줍니다. 이는 3단계 방법론이며 각 단계에서 유사한 종류의 작업이 발생합니다. 가장 중요한 작업은 훈련 데이터 세트를 정의하고 준비하는 것입니다. 데이터 준비는 데이터 정리 및 사전 처리를 다룹니다. 데이터 정리에는 관련 없는 기능을 제거하고 기능에 대해 결측값이 있는 인스턴스를 처리하는 작업이 포함됩니다. 데이터 전처리는 알고리즘이 개선된 결과를 생성할 수 있도록 데이터 세트의 품질을 더욱 향상시킵니다. 실험 평가 단계에서는 준비된 데이터 세트에 대해 일련의 기계 학습 알고리즘을 실행합니다. 각 알고리즘은 예측 모델을 생성합니다. 생성된 모델은 여러 평가 메트릭을 통해 비교되고 견고해 보이는 모델이 해석을 위해 선택됩니다. 모델 구현 단계에서는 선택한 모델을 강사가 쉽게 이해할 수 있는 형식으로 변환합니다. 마지막 단계는 변형된 모델에 비추어 예방 조치를 제안합니다.

그림 1
그림 1

이 연구에 사용된 방법론

데이터 준비

데이터 설명

이 연구의 데이터 세트는 오만 술탄국(Buraimi University College, BUC)에서 가르친 과정의 학생 학업 기록으로 구성됩니다. 데이터는 대학 등록 부서에서 수집되며 모든 윤리 지침을 철저히 준수합니다. 훈련 데이터 세트는 3학기 동안의 기간에 걸쳐 있습니다. 10개의 예측 기능과 1개의 예측 클래스가 있는 훈련 데이터 세트에는 총 151개의 인스턴스가 있습니다. 예측 클래스는 학생들을 "낮음" 또는 "높음"으로 분류합니다. 표 1 은 설명과 함께 기능 목록을 제공합니다.

표 1 설명이 포함된 학생 기능 목록

데이터는 영어에 대한 사전 지식 없이 인간의 말소리와 소리 패턴의 생성을 다루는 대면 강의 "음운학 및 음운론"에서 학생들의 학업 기록으로 구성됩니다. 평가는 각각 15, 15, 50점의 3가지 시험과 20점의 과제로 구성됩니다. 첫 번째 시험은 학기 6주차에 치러지며 과제는 대개 그 이후에 배정됩니다. 강사는 시험-1 종료 직후 어려움을 겪고 있는 학생을 식별할 필요가 있습니다. 1차 시험이 15점이기 때문에 남은 85점을 위해 열심히 공부해야 합니다.

데이터 정리

관련 없는 기능으로 알려진 여러 기능은 예측에 참여하지 않고 학생의 개인 정보와 연결됩니다. 윤리적 및 개인 정보 보호를 처리하기 위해 학생 ID, 학생 이름 및 코스 코드와 같은 관련 없는 기능을 삭제합니다. 마찬가지로 기계 학습 알고리즘은 잡음이 있는 데이터를 올바르게 이해하고 해석할 수 없습니다. 시끄러운 데이터는 하나 이상의 기능에 관련이 없거나 오해의 소지가 있는 값이 있는 인스턴스를 고려합니다. 이러한 인스턴스는 알고리즘의 성능을 저하시키므로 이러한 기능을 신중하게 처리해야 합니다. 표 2노이즈 데이터가 있는 인스턴스가 있는 데이터 세트의 예를 보여줍니다. PreReq_Grades 값이 누락된 여러 사례가 나타나고 마지막 학생이 시험-1(Grade-1_Cont)을 수행하지 않았습니다. 노이즈는 여러 기술을 통해 감소되거나 그러한 인스턴스가 데이터 세트에서 제거됩니다. 잡음이 있는 인스턴스가 제거되면 훈련 데이터 세트에는 151개의 인스턴스가 있습니다.

표 2 데이터 세트에서 노이즈가 있는 인스턴스의 예

데이터 전처리

훈련 데이터 세트는 일반적으로 많은 기능 세트로 구성되지만 전체 기능 세트를 사용하면 분류 결과가 강등될 수 있습니다(Márquez-Vera et al., 2013 ). 분류 프로세스에서 유용하게 보이는 기능의 하위 집합을 완성하는 것이 좋습니다. 특징 선택 단계는 모델 해석을 용이하게 하고, 모델 복잡성을 줄이며, 계산 효율성을 높이고 결과적으로 과적합을 피합니다(Costa-Mendes et al. 2020). 이를 위해 다양한 기능 선택 알고리즘을 사용할 수 있습니다. 겹치는 기능의 수를 줄이기 위해 Ranker 검색 방법과 함께 Gain Ratio Attribute Evaluator Filter를 사용합니다. 이득 비율은 정보 이득의 원리에 기초한 특징 선택 알고리즘의 한 유형입니다. 특징에 대한 GR(Gain Ratio) 값을 생성하며 높은 값은 분류를 위한 특징의 중요성을 나타냅니다. 표 3 은 GR 값의 내림차순으로 나열된 기능을 제공합니다.

표 3 이득 비율 값에 따른 내림차순 기능

가장 중요한 4가지 기능을 선택했습니다. CGPA, PreReq_Grades, Grade-1_Cont(시험-1 점수) 및 출석. 표 4 는 선택한 기능에 대한 설명 분석을 보여줍니다. 데이터는 각 기능의 범위 내에서 잘 분산됩니다. 따라서 필수과목을 통과해야 하므로 최소 50명입니다. 출석률은 77%에서 100% 사이로 잘 분포되어 있습니다.

표 4 주요 기능 및 기술 분석

실험적 평가

모델 개발

분류 실험을 수행하기 위해 WEKA(Waikato Environment for Knowledge Analysis)를 사용합니다(Hall et al., 2009 ). 뉴질랜드 와이카토 대학에서 개발된 WEKA는 데이터 사전 처리, 분류, 클러스터링, 회귀 및 연관 규칙을 위한 광범위한 알고리즘으로 구성된 오픈 소스 소프트웨어입니다.

널리 사용되는 4가지 기계 학습 알고리즘을 선택했습니다. 지연 알고리즘에서 우리는 WEKA에서 IBk로 구현된 k-최근접 이웃(k-NN)을 선택했습니다. RepTree는 WEKA에서 의사결정 트리를 구현한 것입니다. 마찬가지로 ANN(Artificial Neural Networks)의 클래스인 MLP(Multilayer Perceptron)를 선택했고 네 번째 알고리즘은 Naive Bayes입니다. 훈련 데이터 세트가 10개의 동일한 길이 간격으로 분할되는 10 배 교차 검증(Hastie et al., 2005 )을 사용했습니다. 각 주기에서 9개의 간격은 학습 목적으로 사용되고 10번째 간격은 알고리즘의 성능을 테스트하는 데 사용됩니다. 이는 반복적인 프로세스이며 각 반복에서 테스트를 위해 새로운 간격이 선택됩니다. Confusion Matrix(Tharwat, 2018 )는 분류 모델을 시각화합니다. 표 5이진 분류 모델에 대한 표준 혼동 행렬을 보여줍니다. 표 6 은 생성된 예측 모델에 대한 혼동 행렬을 제공합니다.

표 5 이진 분류 모델의 정오분류표
표 6 예측 모델에 대한 혼동 행렬

모델 평가

학생들을 올바른 클래스로 분류하는 기능은 모델의 우위를 보여줍니다. 알고리즘의 성능을 측정하기 위해 정확도, 정밀도, 재현율, F-측정 및 매튜 상관 계수(MCC)를 사용합니다. 분류 정확도는 전체적으로 예측 모델의 성능을 평가합니다. 모델이 TP(True Positive) 및 TN(True Negative) 인스턴스를 얼마나 효과적으로 식별했는지에 대한 아이디어를 제공합니다. 다음과 같이 계산됩니다.

y=N)에프N에프N)아르 자형와이=(+N)(+에프N+에프+N)
(1)

그림  2 는 생산된 모델의 정확도를 비교합니다. 이는 의사결정 트리가 85% 이상의 정확도를 달성하고 나머지는 약간 아래에 머물고 있음을 보여줍니다. 이것은 예측 모델이 훈련 데이터 세트에 대한 탁월한 이해를 보여주고 있음을 보여줍니다. 그러나 특히 데이터 세트가 예측 클래스의 인스턴스 비율이 고르지 않게 구성된 경우 정확도가 단독으로 예측 모델의 우수성을 보장하지 않기 때문에 특히 그렇습니다. 따라서 다른 지표를 통해서도 모델을 비교합니다.

그림 2
그림 2

예측 모델의 정확도 비교

리콜은 모델의 완전성을 의미하고 정밀도는 모델의 정확성을 나타냅니다. 그림  3 은 예측 모델의 정밀도와 재현율 값을 비교합니다. 그들은 다음과 같이 계산됩니다

회상  =TPTP + FN )상기하다 =TP(TP+FN)
(2)
정밀도 =TPTP + FP )정도=TP(TP+FP)
(삼)
그림 3
그림 3

예측 모델의 정밀도 및 재현율 비교

의사 결정 트리와 Naïve Bayes는 ANN 다음으로 가장 높은 정밀도를 달성하고 있습니다. 그러나 회수 비교에서는 k-NN과 ANN이 모두 우선합니다. 의사 결정 트리는 상대적으로 낮은 재현율 값을 갖지만 가장 높은 정확도로 나타남을 보여줍니다.

F-Measure는 정밀도와 재현율의 조화 평균으로 계산되므로 단일 값에 알고리즘 성능을 포함합니다. 다음과 같이 계산됩니다.

F - 측정 =2 *정밀도* 재현율  )정밀 + 리콜 )에프-측정하다=2*(정밀도* 리콜 )(정도+상기하다)
(4)

Figure  4 는 개발된 모델의 F-Measure 값을 비교한 것이다. Decision tree가 ANN에 이어 가장 높은 F-Measure 값을 달성하고 있음을 보여줍니다. K-NN은 Naive Bayes보다 더 나은 회상을 가짐에도 불구하고 유사한 F-Measure 값을 달성합니다.

그림 4
그림 4

예측 모델의 F-Measure 값 비교

매튜 상관 계수(MCC)(Matthews, 1975 )는 올바른 클래스에서 인스턴스를 얼마나 잘 분류했는지에 따라 분류기의 성능을 평가하는 신뢰할 수 있는 통계 비율입니다. − 1(예측과 관찰 간의 총 불일치)과 + 1(완벽한 예측) 사이의 값을 반환합니다. 다음과 같이 계산됩니다.

MCC =티피 . TN - FP . FNTN + FN ) . TP + FP ) . TN + FP ) . TP + FN )--------------------------------------MCC=TP.테네시-FP.FN(테네시+FN).(TP+FP).(테네시+FP).(TP+FN)
(5)

정확한 클래스로 인스턴스를 분류하는 알고리즘의 능력을 확인하기 위해 그림  5 에서 MCC 값을 비교합니다 . 전체 모델 세트 뒤에 남겨진 의사 결정 트리를 보여줍니다. 이것은 결정 트리가 각각의 클래스에 인스턴스를 정확하게 배치할 수 있는 높은 능력을 가지고 있다는 결론을 내립니다.

그림 5
그림 5

예측 모델의 MCC 비교

모델 선택

본 연구의 주요 목적은 학생들의 학업 성취도를 추적하고, 정확한 시기에 학업 능력이 낮은 학생을 식별하여 예방 조치를 제안하는 것입니다. 모델 평가는 거의 모든 평가 메트릭을 이끄는 의사 결정 트리 모델을 마무리합니다. 높은 정확도를 달성하는 것은 TP 및 TN 인스턴스를 올바르게 분류하는 기능을 보여줍니다. 정밀도가 높을수록 예측의 약 93%가 정확하다는 것을 나타내고 높은 재현율은 예측이 실제 결과와 동일할 것임을 나타냅니다. 유사하게, 높은 F-Measure는 정밀도와 재현율 모두의 고조파 평균으로 결과를 생성하는 능력을 증가시킵니다.

더 높은 MCC는 결정 트리가 클래스 내에서 인스턴스에 올바르게 레이블을 지정할 수 있음을 보여줍니다. 하지만 평가는 메트릭에서 약간의 차이를 보여주지만 MCC 값이 높을수록 의사결정 트리의 우수성이 입증됩니다. 또한 의사 결정 트리 분류기는 일반 사용자도 쉽게 이해할 수 있는 명확한 그림을 제공합니다(Trabelsi et al., 2019 ). 따라서 우리는 추가 평가를 위해 의사 결정 트리 기반 모델을 선택할 것을 제안합니다.

모델 구현

모델 해석

이전 섹션에서는 현재 컨텍스트에서 적절한 모델로 의사 결정 트리를 결론지었습니다. 그림  6 과 7WEKA에서 추출한 결정 트리와 분류 규칙을 각각 보여줍니다. 의사결정나무의 주요 장점은 이해와 해석이 쉽다는 것입니다. 결정 트리는 CGPA, 시험-1 점수 및 출석을 나눕니다. 의사 결정 트리의 규칙은 모델을 더욱 명확하게 합니다. 그것은 CGPA가 시험-1 점수 다음에 오는 학생들의 수행의 주요 특징임을 보여줍니다. CGPA가 2.79 이상인 학생이 더 높은 점수를 받을 확률이 있음을 보여준다. 반면에 CGPA가 2.79 미만이지만 시험-1에서 91.65% 이상의 성적을 받은 학생들도 성적이 더 높은 경향이 있다. CGPA가 2.79 미만이고 시험-1 성적이 91.65% 미만이고 수업에 출석한 비율이 96.35% 미만인 학생은 코스에서 더 낮은 결과를 낼 위험이 있습니다.

그림 6
그림 6

WEKA에서 추출한 의사결정나무(RepTree)

그림 7
그림 7

훈련 데이터 세트에서 공개된 분류 규칙

모델 실행

예측 모델은 예방 조치가 없으면 불완전합니다. 따라서 본 연구의 마지막 단계는 모델을 현장에서 구현하는 것이다. 목표는 모델을 이해하기 쉬운 절차로 변환하고 부적절한 수행을 보이는 학생들을 위한 예방 조치를 설계하는 것입니다.

지원조치(사전집행절차)

출력 모델은 출석을 핵심 요소 중 하나로 나타내므로 강사는 코스/학기 시작부터 지속적으로 중요성을 강조해야 합니다. 결석의 결과를 줄이기 위해 강사는 이전 수업의 빠른 수정을 위해 시간 슬롯을 추가하여 교육 방법을 수정할 수 있습니다. 또한 이 모델은 강사가 CGPA가 2.79 미만인 학생에게 각별한 주의를 기울여야 함을 나타냅니다. 이러한 조치는 시험-1 이전에 비효율적인 학생의 수를 줄일 수 있습니다.

예방 조치(집행 후 절차)

강사는 시험-1 직후 모델을 실행하고 가능한 최종 결과로 분류된 학생 목록을 가져옵니다. 과정을 낙제할 위험이 있는 학생들은 자문 상담을 위해 보내질 것입니다. 강사는 각 학생과의 인터뷰 세션을 준비하고 모든 학생의 적응된 관점에 따라 예방 조치를 계획할 수 있습니다. 또한 강사는 위험에 처한 학생들을 올바른 길로 인도하기 위해 추가 수업을 마련할 수 있습니다. 추가 수업의 주요 목적은 수업 내용을 수정하고 학생들에게 동기를 부여하는 것입니다.

모델 실행 및 결과

시험-1이 끝나면 강사는 예측 데이터 세트를 준비합니다. 이 데이터 세트는 시험-1의 학생 CGPA, 출석 및 성적으로 구성됩니다. 학습 데이터 세트와 달리 예측 데이터 세트(Final_Grade)의 마지막 열에는 "?"가 표시됩니다. 기호이며 예측 모델에 의해 채워져야 합니다. 강사는 개발된 모델에 대한 입력으로 예측 데이터 세트를 제공합니다. 모델은 예측 데이터 세트에서 각 학생의 최종 결과를 실행하고 예측합니다. 출력 파일에는 각 학생의 예상 최종 결과가 "낮음" 또는 "높음"으로 포함됩니다. 예측 결과가 "낮음"인 학생은 불만족스러운 최종 결과를 생성할 위험이 더 높습니다. 따라서 강사는 이러한 학생들을 모집하여 후원 여부를 확인하고 단점과 함께 경고를 보냅니다.

강사는 진도에 심각한 문제가 있는 경우 학생을 자문 위원회에 전달할 수 있습니다. 정부 후원이 있는 학생에게는 엄격합니다. 학생이 학년말에 CGPA를 2.0 이상으로 유지하지 못할 경우 정부에서 후원을 중단할 수 있기 때문입니다. 특정 상황에서는 강사가 조언을 제공하거나 추가 수업을 주선할 수 있습니다.

모델은 25명의 학생과 함께 한 학기 동안 실제 환경에서 테스트됩니다. 시험-1이 종료된 후, 불만족스러운 결과로 학기를 마감할 위기에 처한 5명의 여학생을 식별하는 모델이 실행되었다. 표 7 은 학생들의 목록과 필수 정보를 보여줍니다.

표 7 학업성적 불만족 학생 명단

학생-1은 CGPA, 출석 및 선행 필수 과목의 낮은 성적에서 알 수 있듯이 실망스러운 학업 성적을 보였습니다. 학생은 CGPA가 낮은 이유를 조사할 자문 인터뷰로 안내됩니다. 강사는 출석을 개선하고 학업 위치를 향상시키기 위해 추가 수업을 제공하는 조언을 제공합니다. 마찬가지로, 학생 4는 CGPA 2.0 미만으로 떨어지는 것을 방지하고 강사의 추가 수업 및 출석 조언을 받을 자격을 갖추기 위해 자문 회의가 필요합니다. 학생 1과 4는 모두 정부 후원을 받고 있으므로 추가 조언이 필요합니다.

학생-3은 출석률이 좋지 않아 CGPA가 양호하고 필수 과목에서 만족스러운 성과에도 불구하고 첫 번째 시험에서 낮은 점수를 받을 수 있습니다. 학생은 자신의 위치를 ​​개선하기 위해 추가 수업을 받을 자격이 있을 뿐만 아니라 수업 참석을 제한하는 문제를 해결하기 위해 강사의 조언이 필요합니다. 학생 2는 필수 과목에서 낮은 점수를 받았고 첫 번째 시험에서 추가 수업을 받을 자격이 있으며 강사의 출석 조언이 필요합니다. 학생-5의 유일한 문제는 출석률이 낮다는 것인데, 이는 강사의 조언과 경고로 처리됩니다.

전반적으로 2명의 학생은 자문 위원회 인터뷰를 위해 전달되고 4명은 추가 수업을 받을 자격이 있으며 1명은 출석 경고 및 조언을 중단해야 합니다. 학생들에게 추가 지원을 제공하기 위해 더 짧은 길이의 추가 수업이 마련되었습니다. 마찬가지로 학생들은 추가 지식을 얻기 위해 강사의 근무 시간에 강사를 방문하도록 조언되었습니다.

전반적으로 학생들은 추가 수업이나 교무실 방문에 대해 평균적인 관심을 보였다. 주된 이유 중 하나는 학생의 자유 시간과 강사의 근무 시간 사이의 시간 충돌일 수 있습니다. 그러나 출석률의 향상으로 학습 능력이 향상되었고 코스가 끝날 무렵 학생들은 만족스러운 결과를 얻었습니다.

예측 모델은 강사와 학생 모두에게 건설적이고 도움이 되는 것으로 나타났습니다. 불만족스러운 결과를 얻을 위험이 있는 학생들은 학기의 6번째 주에 식별되어 경고를 받았습니다. 낮은 CGPA의 가장자리에있는 학생은 모델을 칭찬했고 시간 내 경고는 열심히 일하고 어려움에서 벗어나도록 동기를 부여했습니다. 마찬가지로 만족스러운 결과를 얻은 학생들도 출석제안을 채택했고, 결국 학기말에는 출석률이 낮은 소수의 학생이 나타났다. 전반적인 효과는 어려움을 겪고 있는 학생의 향상으로 측정됩니다. 대부분의 학생(5명 중 4명)이 수용 가능한 최종 결과를 얻을 수 있었습니다.

결론 및 향후 작업

강사는 학생들의 학업 성장을 모니터링하고 학업 성취도가 부족한 학생들에게 추가 지원을 제공하는 데 더 열심입니다. 강사는 어려움을 겪고 있는 학생들에게 추가 지원을 제공할 수 있습니다. 본 연구에서는 머신러닝 알고리즘의 유용성을 평가하여 학생을 모니터링하고, 결과가 부적절하게 예측된 학생에 대해 강사에게 통지합니다. 주요 목표는 학기 초반에 어려움을 겪고 있는 학생들을 식별하여 그들이 재작업하고 만족스러운 최종 결과를 얻을 수 있는 충분한 시간을 갖도록 하는 것입니다. 우리는 151개의 인스턴스가 있는 데이터 세트를 사전 처리하고 기계 학습 알고리즘 세트, 명시적으로 k-NN, 의사 결정 트리, 인공 신경망 및 나이브 베이를 적용하여 가장 적절한 예측 모델을 제시했습니다. 의사 결정 트리는 86% 이상의 정확도를 달성하여 우선합니다. 0.91의 F-측정 및 0.63의 MCC. 선택한 모델은 이해하기 쉬운 형태로 변형되어 강사가 쉽게 결과를 확인하고 필요한 예방 절차를 준비할 수 있습니다.

해석은 CGPA, 시험-1의 성적, 필수 과목의 성적 및 수업 출석을 학생의 학업 위치를 정량화하는 특성으로 나타냅니다. 강사는 CGPA가 낮은 학생들에게 추가적인 주의를 기울여야 하며 수업 참석의 중요성에 대해 학생들을 격려해야 합니다. 강사는 시험-1 이후에 모델을 실행하고 어드바이저 회의 형태로 어려움을 겪고 있는 학생에게 추가 관심을 제공하기 위해 예방 조치를 선동하고 개별 학생의 개별 상황에 따라 추가 수업 및 예방 조치를 배치합니다. 현장 테스트는 모델의 효율성을 보여주고 몇몇 학생은 불만족스러운 최종 결과로 식별됩니다. 강사는 각 학생에게 개별화된 지원을 제공하기 위해 추가 절차를 고안했습니다.

앞으로는 2차 시험 이후에 그 개념을 확장하여 다시 모델을 적용하고자 합니다. 이것은 모델의 효율성을 높이고 어려움을 겪고 있는 학생들은 재작업을 하고 다가오는 평가를 잘 준비할 수 있는 추가 기회를 얻게 됩니다. 추가 수업이나 강사 사무실 방문이 제대로 작동하지 않았기 때문에; 따라서 제안된 프레임워크에 추가 권장 사항 모듈을 추가할 계획입니다. 추천 모듈은 현재 상태에 따라 학생에게 개인화된 추천을 자동으로 보냅니다. 우리는 이 모델을 다른 과정에 적용하고 그 개념을 해당 기관의 전체 과정으로 확장하는 것을 목표로 합니다.

데이터 및 자료의 가용성

이 연구 동안 생성되거나 분석된 모든 데이터는 추가 파일 1 및 2 에 포함 됩니다. 현재 연구 중에 사용된 데이터 세트는 합리적인 요청에 따라 교신 저자로부터 사용할 수 있습니다.

약어

OAAA:

오만 학술 인증 기관

ABET:

엔지니어링 및 기술 인증 위원회

그것의:

지능형 과외 시스템

LMS:

학습 관리 시스템

일체 포함:

인공 지능

앤:

인공 신경망

k-NN:

K-가장 가까운 이웃

웨카:

지식 분석을 위한 Waikato 환경

MLP:

다층 퍼셉트론

내 고객센터:

매튜 상관 계수

TP:

참 긍정

FN:

거짓 부정

FP:

위양성

테네시:

참음성

참고문헌

  • Alabri, A., Al-Khanjari, Z., Jamoussi, Y., & Kraiem, N. (2019). 개인화된 e-러닝 환경에서 학생들의 채팅 대화를 마이닝합니다. 학습의 신흥 기술 국제 저널(iJET), 14 (23), 98–124.

    기사 Google 학술검색 

  • Alfere, SS, & Maghari, AY (2018). 수정된 KNN 분류기를 사용한 학생의 수행 예측. 수정된 KNN 분류기를 사용한 학생의 수행 예측 .

  • Asogwa, O., & Oladugba, A. (2015). 인공 신경망(ANN)을 사용한 학생의 학업 성취도. 미국 응용 수학 및 통계 저널, 3 (4), 151–155.

    Google 학술검색 

  • Chen, H. (2018). 자동 채점 시스템의 데이터를 사용하여 학생의 수행을 예측합니다. 워털루 대학교.

  • Costa, EB, Fonseca, B., Santana, MA, de Araújo, FF 및 Rego, J. (2017). 프로그래밍 입문 과정에서 학생의 학업 실패를 조기에 예측하기 위한 교육 데이터 마이닝 기술의 효율성 평가. 인간 행동의 컴퓨터, 73 , 247–256.

    기사 Google 학술검색 

  • Costa-Mendes, R., Oliveira, T., Castelli, M., & Cruz-Jesus, F. (2020). 2015년 포르투갈 고등학생 성적의 기계 학습 근사치: 하이브리드 접근 방식. 교육 및 정보 기술 , 1–21.

  • Cunningham, P., & Delany, SJ (2007). k-최근접이웃 분류기. 다중 분류기 시스템, 34 (8), 1–17.

    Google 학술검색 

  • Domingos, P., & Pazzani, M. (1997). 0-1 손실에서 단순 베이지안 분류기의 최적성에 대해. 기계 학습, 29 (2–3), 103–130.

    기사 Google 학술검색 

  • Došilović, FK, Brčić, M., & Hlupić, N. (2018). 설명 가능한 인공 지능: 설문 조사. 2018 제41회 정보통신기술, 전자 및 마이크로일렉트로닉스(MIPRO) 국제대회에서 발표된 논문 .

  • Drachsler, H., & Greller, W. (2012). 학습 분석에 대한 자신감.

  • Gašević, D., Dawson, S., & Siemens, G. (2015). 잊지 말자: 학습 분석은 학습에 관한 것입니다. TechTrends, 59 (1), 64–71.

    기사 Google 학술검색 

  • Hall, M., Frank, E., Holmes, G., Pfahringer, B., Reutemann, P., & Witten, IH (2009). WEKA 데이터 마이닝 소프트웨어: 업데이트. ACM SIGKDD 탐사 뉴스레터, 11 (1), 10–18.

    기사 Google 학술검색 

  • Hastie, T., Tibshirani, R., Friedman, J., & Franklin, J. (2005). 통계 학습의 요소: 데이터 마이닝, 추론 및 예측. The Mathematical Intelligencer, 27 (2), 83–85.

    Google 학술검색 

  • Iatrellis, O., Savvas, I. Κ., Fitsilis, P., & Gerogiannis, VC (2020). 학생 결과를 예측하기 위한 2단계 기계 학습 접근 방식입니다. 교육 및 정보 기술 , 1–20.

  • Jishan, ST, Rashu, RI, Haque, N. 및 Rahman, RM(2015). 최적의 등폭 비닝 및 합성 소수 오버샘플링 기법을 사용하여 학생의 최종 성적 예측 모델의 정확도를 개선합니다. 의사결정 분석, 2 (1), 1.

    기사 Google 학술검색 

  • Kassambara, A. (2017). R: Unsupervised Machine Learning (Vol. 1): Sthda의 클러스터 분석에 대한 실용 가이드.

  • Kaunang, FJ, & Rotikan, R. (2018). 데이터 마이닝을 이용한 학생의 학업 성취도 예측. 2018 년 제3회 정보학 및 컴퓨팅(ICIC) 국제 회의에서 발표된 페이퍼에서 .

  • Kausar, S., Oyelere, S., Salal, Y., Hussain, S., Cifci, M., Hilcenko, S., Iqbal, M., Wenhao, Z., & Huahu, X. (2020). 앙상블 분류기를 사용하여 스마트 학습 분석 데이터 마이닝. 학습의 신흥 기술 국제 저널(iJET), 15 (12), 81–102.

    기사 Google 학술검색 

  • Khan, I., Al Sadiri, A., Ahmad, AR, & Jabeur, N. (2019). 기계 학습을 통해 입문 프로그래밍에서 학생의 성과를 추적합니다. 2019 년 제4회 MEC 빅데이터 및 스마트시티(ICBDSC) 국제회의에서 발표된 논문에서 .

  • Khan, S. (2018). 고등 교육을 위한 도전으로서의 현대 사물 인터넷. IJCSNS, 18 (12), 34.

    Google 학술검색 

  • Kiu, C.-C. (2018). 학생의 배경 및 사회 활동의 탐색을 통해 학생의 학업 수행에 대한 데이터 마이닝 분석. 2018 년 제4회 컴퓨팅, 통신 및 자동화 발전에 관한 국제 컨퍼런스(ICACCA)에서 발표된 페이퍼에서 .

  • Lagman, AC, Calleja, JQ, Fernando, CG, Gonzales, JG, Legaspi, JB, Ortega, JHJC, Ramos, RF, Solomo, MVS 및 Santos, RC(2019). 학생 졸업을 예측할 때 순진한 Bayes 알고리즘 데이터 모델을 포함합니다. 통신 및 통신 공학에 관한 제3회 국제 회의의 진행 과정에서 발표된 논문 에서 .

  • Lesinski, G., Corns, S., & Dagli, C. (2016). 미 육군 사관학교 졸업 성공 예측을 위한 인공 신경망 적용. Procedia 컴퓨터 과학, 95 , 375–382.

    기사 Google 학술검색 

  • Li, M., Xu, H., & Deng, Y. (2019). 신념 엔트로피에 기반한 증거 결정 트리. 엔트로피, 21 (9), 897.

    기사 Google 학술검색 

  • Liao, SN, Zingaro, D., Thai, K., Alvarado, C., Griswold, WG 및 Porter, L.(2019). 성취도가 낮은 학생을 예측하는 강력한 머신 러닝 기술입니다. 컴퓨팅 교육에 대한 ACM 거래(TOCE), 19 (3), 1–19.

    기사 Google 학술검색 

  • Lu, Y. (2019). 인공 지능: 진화, 모델, 응용 프로그램 및 미래 동향에 대한 조사. 경영 분석 저널, 6 (1), 1–29.

    기사 Google 학술검색 

  • Ma, X., Yang, Y., & Zhou, Z. (2018). 기계 학습 알고리즘을 사용하여 온라인 교육에서 학생의 합격률을 예측합니다. 멀티미디어 시스템 및 신호 처리에 관한 제3회 국제 회의 에서 발표된 논문에서 .

  • Maesya, A., & Hendiyanti, T. (2019). 분류 및 회귀 트리(CART) 알고리즘을 사용한 학생 졸업 예측. IOP 컨퍼런스 시리즈 에서 발표된 논문: 재료 과학 및 엔지니어링 .

  • Marquez-Vera, C., Morales, CR 및 Soto, SV(2013). 데이터 마이닝 기술을 사용하여 학교 실패 및 중퇴를 예측합니다. IEEE Revista Iberoamericana De Tecnologias Del Aprendizaje, 8 (1), 7–14.

    기사 Google 학술검색 

  • 매튜스, BW (1975). T4 파지 리소자임의 예측 및 관찰된 2차 구조의 비교. Biochimica et Biophysica Acta (BBA)-단백질 구조, 405 (2), 442–451.

  • Mitchell, R., Michalski, J. 및 Carbonell, T. (2013). 인공 지능 접근 방식 : Springer.

  • Mondal, A., & Mukherjee, J. (2018). RNN(Recurrent Neural Network)을 사용하여 학생의 학업 성취도를 예측하는 접근 방식. 컴퓨터 및 응용 국제 저널, 181 (6), 1–5.

    기사 Google 학술검색 

  • 네틀먼, 캘리포니아, III. (2018). 미국의 ABET 인증 학부 토지 측량 및 지리학 프로그램에 대한 평가. 측량 및 토지 정보 과학, 77 (2), 105–114.

    Google 학술검색 

  • 닐슨, 뉴저지 (2014). 인공 지능의 원리 : Morgan Kaufmann.

  • Norris, D., Baer, ​​L., Leonard, J., Pugliese, L., & Lefrere, P. (2008). 행동 분석: 고등 교육에서 중요한 성과를 측정하고 개선합니다. EDUCAUSE 검토, 43 (1), 42.

    Google 학술검색 

  • Oladokun, V., Adebanjo, A. 및 Charles-Owaba, O. (2008). 인공신경망을 이용한 학생의 학업성취도 예측: 공학과목의 사례연구.

  • Orong, MY, Caroro, RA, Durias, GD, Cabrera, JA, Lonzon, H. 및 Ricalde, GT(2020). 필리핀의 고등 교육 기관에서 학생 감소의 예측 변수를 결정하기 위한 예측 분석 접근 방식. 소프트웨어 공학 및 정보 관리에 관한 제3회 국제 회의 에서 발표된 논문에서 .

  • Pandey, M., & Taruna, S. (2016). 학생의 수행 예측과 관련된 다중 분류기의 통합을 향하여. 과학의 관점, 8 , 364–366.

    기사 Google 학술검색 

  • Qazdar, A., Er-Raha, B., Cherkaoui, C., & Mammass, D. (2019). 학생 성과 예측을 위한 기계 학습 알고리즘 프레임워크: 모로코의 학사 학위 학생 사례 연구. 교육 및 정보 기술, 24 (6), 3577–3589.

    기사 Google 학술검색 

  • Romanenko, V., Tropin, Y., Boychenko, N., & Goloha, V. (2019). 컴퓨터 기술을 사용하여 학생의 수행을 모니터링합니다. Slobozhanskyi herald of science and sport, 7 (2(70)), 36–39.

  • 사아, AA (2016). 교육용 데이터 마이닝 및 학생의 수행 예측. 고급 컴퓨터 과학 및 응용 국제 저널, 7 (5), 212–220.

    Google 학술검색 

  • Sunday, K., Ocheja, P., Hussain, S., Oyelere, S., Samson, B., & Agbo, F. (2020). 분류 기법을 사용하여 프로그래밍 교육에서 학생의 수행을 분석합니다. 학습의 신흥 기술 국제 저널(iJET), 15 (2), 127–144.

    기사 Google 학술검색 

  • Suthaharan, S. (2016). 벡터 머신 빅 데이터 분류를 위한 머신 러닝 모델 및 알고리즘 지원 (pp. 207–235): Springer.

  • 타왓, A. (2018). 분류 평가 방법. 응용 컴퓨팅 및 정보학 .

  • Trabelsi, A., Elouedi, Z., & Lefevre, E. (2019). 증거 속성 값 및 클래스 레이블에 대한 의사 결정 트리 분류기. 퍼지 집합 및 시스템, 366 , 46–62.

    기사 Google 학술검색 

  • Umer, R., Susnjak, T., Mathrani, A., & Suriadi, S. (2017). 학습 분석에서 프로세스 마이닝을 통한 학업 성취도 예측. 혁신적인 교수 및 학습 연구 저널 .

  • Witten, IH, Frank, E., Hall, MA, & Pal, CJ (2016). 데이터 마이닝: 실용적인 기계 학습 도구 및 기술 : Morgan Kaufmann.

  • Yang, T.-Y., Brinton, CG, Joe-Wong, C., & Chiang, M. (2017). 시계열 신경망을 통한 MOOC의 행동 기반 등급 예측. IEEE Journal of Selected Topics in Signal Processing, 11 (5), 716–728.

    Google 학술검색 

  • Yousafzai, BK, Hayat, M., & Afzal, S. (2020). 중, 중등 교육 수준 학생의 성과 예측에 머신 러닝 및 데이터 마이닝 적용. 교육 및 정보 기술 , 1–21.

참조 다운로드

감사의 말

해당되지 않습니다.

자금 조달

해당되지 않습니다.

작가 정보

저자 및 소속

기여

각 저자는 작업 설계, 데이터 준비, 실험(확인), 분석(분석 수정 및 확인)에 상당한 기여를 했습니다. 각 저자는 작업 초안을 작성하거나 가능한 개선을 위해 수정했습니다. 모든 저자는 최종 원고를 읽고 승인했습니다.

저자 정보

Ijaz Khan은 2003년 파키스탄 Peshawar 대학교에서 컴퓨터 공학 학사(우등) 학위를, 2009년 리버풀 John Moores 대학교에서 컴퓨터 공학 MPhil을 받았습니다. 지난 8년. 현재 그는 말레이시아 UNITEN(University Tenaga Nasional)에서 박사 학위를 위해 공부하고 있으며 기계 학습 알고리즘을 사용하여 학생의 성과 예측 모델을 개발하는 데 중점을 두고 있습니다. 그의 연구 관심 분야는 인공 지능, 기계 학습, 사물 인터넷 및 소셜 네트워킹입니다.

Abdul Rahim Ahmad는 초기 경력은 Malaysian Polytechnic 시스템의 강사였습니다. 그는 나중에 위성 텔레비전 회사인 Measat Broadcast Network Systems(MBNS) 방송 자동화 팀에 합류했습니다. 1997년 그는 Universiti Tenaga Nasional(UNITEN)에 선임 강사로 합류했습니다. 그는 컴퓨터 및 정보 대학(CCI), 연구 관리 센터(RMC) 및 에너지 정책 및 연구 연구소(IEPRe)에서 다양한 직책을 역임했습니다. 그는 현재 CCI의 부교수입니다. 그는 호주 퀸즐랜드 대학교에서 컴퓨터 공학 학사 학위를, 영국 러프버러 대학교에서 석사를, 말레이시아 대학교와 프랑스 낭트 대학교에서 박사 학위를 취득했습니다. 그의 학문 및 연구는 컴퓨터 시스템, 네트워크 및 인공 지능입니다.

Nafaâ Jabeur 박사는 오만에 있는 GermanUniversity of Technology(GUtech)의 부교수이자 연구 책임자입니다. 그는 2006년과 2001년에 각각 캐나다 퀘벡의 Laval University에서 컴퓨터 공학 박사 및 석사 학위를 받았습니다. 그는 산업 및 학계에서 15년 이상의 경험을 가지고 있습니다. Nafaâ는 여러 R&D 프로젝트에 참여하고 2권의 책을 편집했으며 권위 있는 컨퍼런스와 높은 순위의 저널에 80편 이상의 연구 논문을 저술했습니다. 그의 주요 연구 관심 분야는 스마트 도시, 교통, 블록체인, 드론 및 인공 지능입니다.

Mohammed Najah Mahdi는 B.Sc. 2002년 이라크 바그다드 대학교 공과대학 정보공학과에서 석사 학위를 취득했습니다. 2011년 University of Malaya(UM) 컴퓨터 과학 및 정보 기술 학부에서 정보 기술로 박사 학위를 취득했습니다. 그는 현재 University Tenaga Nasional(UNITEN) Malaysia에서 박사후 연구원으로 재직 중입니다. 그의 연구 관심 분야는 패싯 검색, 정보 과부하, 탐색적 검색 및 정보 검색입니다.

교신 저자

Ijaz Khan 에 대한 서신 .

윤리 선언문

경쟁 관심

저자는 경쟁 이익이 없음을 선언합니다.

추가 정보

발행인의 메모

Springer Nature는 출판된 지도 및 기관 제휴의 관할권 주장과 관련하여 중립을 유지합니다.

추가 정보

 

추가 파일 1.

원본 데이터세트 파일.

추가 파일 2.

온라인 리소스 2_DataSet_Preprocessed.

권리 및 권한

오픈 액세스 이 기사는 원본 저자(들)와 출처에 대한 적절한 크레딧을 제공하는 한 모든 매체 또는 형식으로 사용, 공유, 각색, 배포 및 복제를 허용하는 Creative Commons Attribution 4.0 International License에 따라 사용이 허가되었습니다. 크리에이티브 커먼즈 라이선스에 대한 링크를 제공하고 변경 사항이 있는지 표시합니다. 이 기사의 이미지 또는 기타 제3자 자료는 자료에 대한 크레딧 라인에 달리 명시되지 않는 한 기사의 크리에이티브 커먼즈 라이선스에 포함됩니다. 자료가 기사의 크리에이티브 커먼즈 라이선스에 포함되어 있지 않고 의도한 사용이 법적 규정에 의해 허용되지 않거나 허용된 사용을 초과하는 경우 저작권 소유자로부터 직접 허가를 받아야 합니다. 이 라이센스의 사본을 보려면 다음을 방문하십시오.http://creativecommons.org/licenses/by/4.0/ .

재인쇄 및 허가

 
[세계미래보고서]시리즈, 판매제품
1/6
광고
광고
광고
광고
광고
광고
광고
많이 본 기사
최신기사