dc.contributor.advisor |
ปิยะทิพย์ ประดุจพรม |
|
dc.contributor.author |
พิจักษณา กาวี |
|
dc.contributor.other |
มหาวิทยาลัยบูรพา. วิทยาลัยการวิจัยและวิทยาการปัญญา |
|
dc.date.accessioned |
2023-05-12T04:02:41Z |
|
dc.date.available |
2023-05-12T04:02:41Z |
|
dc.date.issued |
2561 |
|
dc.identifier.uri |
https://buuir.buu.ac.th/xmlui/handle/1234567890/7512 |
|
dc.description |
วิทยานิพนธ์ (วท.ม.)--มหาวิทยาลัยบูรพา, 2561 |
|
dc.description.abstract |
การทำหน้าที่ต่างกันของข้อสอบ (DIF) กับความลำเอียงของข้อสอบ (Item Bias) มีความแตกต่างกัน การทำหน้าที่ต่างกันของข้อสอบเป็นกระบวนการที่ใช้วิธีการทางสถิติในการตรวจสอบ ส่วนความลำเอียงของข้อสอบเป็นกระบวนการตัดสินความยุติธรรมของข้อสอบ โดยนำผลการทำหน้าที่ต่างกันของข้อสอบนำมาวิเคราะห์เชิงเนื้อหาโดยผู้เชี่ยวชาญ การวิจัยนี้มีวัตถุประสงค์เพื่อวิเคราะห์ คุณภาพของข้อสอบ O-NET ชั้นมัธยมศึกษาปีที่ 6 ปีการศึกษา 2556 จำนวน 8 กลุ่มสาระการเรียนรู้ ทั้งฉบับก่อนและฉบับหลังตัด DIF ตรวจสอบความเที่ยง ความตรงเชิงโครงสร้างของแบบทดสอบ O-NET ทั้งฉบับก่อนและฉบับหลังตัด DIF ตรวจสอบการทำหน้าที่ต่างกันของข้อสอบระหว่างวิธี IRT-LR กับ วิธี SIBTEST และเปรียบเทียบอัตรา ความคลาดเคลื่อนประเภทที่ 1 และ 2 ของผลการตรวจ DIF ใช้ข้อมูลทุติยภูมิ จากสถาบันทดสอบทางการศึกษาแห่งชาติ (องค์การมหาชน) วิเคราะห์คุณภาพของข้อสอบตามหลักการของทฤษฎีการตอบสนองข้อสอบ แบบ 3 พารามิเตอร์ ด้วยโปรแกรม Xcalibre Version 4.2.2 ผลการวิจัยปรากฏว่า 1) แบบทดสอบ O-NET ชั้นมัธยมศึกษาปีที่ 6 จำนวน 8 กลุ่มสาระการเรียนรู้ทั้งฉบับก่อน และฉบับหลังตัด DIF มีค่าอำนาจจำแนกของข้อสอบ (a) และค่าความยากของข้อสอบ (b) แตกต่างกัน ส่วนค่าโอกาสการเดาของข้อสอบ (c) ไม่เกิน 0.3 โดยมีค่าความเที่ยงของแบบทดสอบฉบับก่อนและหลังตัด DIF แตกต่างกัน 2) การตรวจสอบความตรงเชิงโครงสร้างของแบบทดสอบ O-NET ทั้ง 8 กลุ่มสาระการเรียนรู้ฉบับก่อนและฉบับหลังตัด DIF มี 2 กลุ่มสาระการเรียนรู้ ไม่แตกต่างกัน ซึ่งความสอดคล้องกับข้อมูลเชิงประจักษ์ 3) การตรวจสอบการทำหน้าที่ต่างกันของข้อสอบ O-NET ทั้ง 8 กลุ่มสาระการเรียนรู้พบว่า วิธี IRT-LR ตรวจพบ DIF มากกว่าวิธี SIBTEST คิดเป็นร้อยละ 41.86 และทั้ง 2 วิธี พบ DIF ตรงกัน จำนวน 65 ข้อ คิดเป็นร้อยละ 15.12 (p < 0.05) 4) การเปรียบเทียบอัตราความคลาดเคลื่อนประเภทที่ 1 และ 2 พบว่า มี 2 กลุ่มสาระ การเรียนรู้ที่มีอัตราความคลาดเคลื่อนประเภทที่ 1 ต่ำ คือ สาระการเรียนรู้ภาษาอังกฤษ และคณิตศาสตร์ โดยมี 2 กลุ่มสาระการเรียนรู้ที่มีอัตราความคลาดเคลื่อนประเภทที่ 2 สูง คือ สาระการเรียนรู้ ภาษาต่างประเทศ (ภาษาอังกฤษ) และการงานอาชีพและเทคโนโลยี |
|
dc.language.iso |
th |
|
dc.publisher |
วิทยาลัยการวิจัยและวิทยาการปัญญา มหาวิทยาลัยบูรพา |
|
dc.rights |
มหาวิทยาลัยบูรพา |
|
dc.subject |
แบบทดสอบ -- การประเมิน |
|
dc.subject |
แบบทดสอบทางการศึกษาแห่งชาติขั้นพื้นฐาน |
|
dc.subject |
ข้อสอบ -- การวิเคราะห์ |
|
dc.subject |
การวัดผลทางการศึกษา -- ข้อสอบและเฉลย |
|
dc.subject |
มหาวิทยาลัยบูรพา -- สาขาวิชาการวิจัยและสถิติทางวิทยาการปัญญา |
|
dc.title |
การเปรียบเทียบผลการวิเคราะห์การทำหน้าที่ต่างกันของข้อสอบในแบบทดสอบ O-Net ชั้นมัธยมศึกษาปีที่ 6 ระหว่างวิธี IRT-LR กับวิธี Sibtest |
|
dc.title.alternative |
A comprison of detecting differentil item functioning in grde 12 O-Net results between the irt-lr nd sibtest methods |
|
dc.type |
วิทยานิพนธ์/ Thesis |
|
dc.description.abstractalternative |
Differential Item Functioning (DIF) and Item Bias possess a different idea. Differential Item Functioning is a process that uses statistical methods to validate. Whilst, Item Bias is a process that justifies the item fairness using the results of the Differential Item Functioning for content analysis and the experts are assigned to validate. The objectives of this research were (1) to analyze the quality of O-NET test items for grade twelve in the academic year 2556 across eight groups of curriculum implementation for both before and after DIF item elimination in terms of reliability index and construct validity and (2), to compare IRT-LR and SIBTEST type I and II error rates. Secondary data were obtained from the National Institute of Educational Testing Service. The three parameter logistic model of item response theory was used to assess item quality. Statistical analysis was performed using Xcalibre Version 4.2.2. Results were shown as follows: 1) The O-NET results for grade twelve on eight groups of curriculum implementations for both before and after DIF item elimination indicated differences among item-discrimination values and item-difficulty values. The item guessing parameter did not exceed 0.30. The reliability index was significantly different after DIF-item deletion. 2) The construct validity of the O-NET test before and after DIF-item deletion across eight groups of curriculum implementations indicated that two groups of curriculum implementations did not differ, and were consistent with empirical data. 3) Comparing the results revealed that IRT-LR method was better at detecting DIF than the SIBTEST method. 4) Comparing the result of the type I and II error rates revealed that there was a low level of Type I error on two groups of curriculum implementation (English and Mathematics), but there was a high level of Type II error on two groups of curriculum implementation (English, and Careers and Technology). |
|
dc.degree.level |
ปริญญาโท |
|
dc.degree.discipline |
การวิจัยและสถิติทางวิทยาการปัญญา |
|
dc.degree.name |
วิทยาศาสตรมหาบัณฑิต |
|
dc.degree.grantor |
มหาวิทยาลัยบูรพา |
|