تعداد نشریات | 161 |
تعداد شمارهها | 6,573 |
تعداد مقالات | 71,037 |
تعداد مشاهده مقاله | 125,520,750 |
تعداد دریافت فایل اصل مقاله | 98,780,259 |
مقایسة سؤالهای چندگزینهای و ترجمهای از لحاظ پایایی و دشواری در آزمون دانش دستوری | ||
پژوهشهای زبانشناختی در زبانهای خارجی | ||
مقاله 7، دوره 3، شماره 1، فروردین 1392، صفحه 117-133 اصل مقاله (175.17 K) | ||
نوع مقاله: علمی پژوهشی(عادی) | ||
شناسه دیجیتال (DOI): 10.22059/jflr.2013.53766 | ||
نویسندگان | ||
حامد زندی* 1؛ شیوا کیوان پناه2؛ سید محمد علوی2 | ||
1دکترای آموزش زبان انگلیسی از دانشگاه تهران، مدرس دانشگاه تحصیلات تکمیلی در علوم پایة زنجان، ایران | ||
2دانشیار، گروه زبان و ادبیات انگلیسی، دانشکدة زبانها و ادبیات خارجی، دانشگاه تهران، تهران، ایران | ||
چکیده | ||
به طور معمول از سؤالهای چندگزینهای برای سنجش دانش زبانی استفاده میشود. اما از آنجا که در رویکرد نظاممند طراحی سؤال، که جدیداً مطرح شده است (شین، 2012)، استفاده از صورتهای متنوع برای طراحی سؤال مطلوب است، همچنین به دلیل اینکه تحقیقات بسیار اندکی در مورد امکان استفاده از سؤالهای ترجمهای برای تنوع بخشیدن به سؤالهای آزمون وجود دارد، پژوهش حاضر با هدف مقایسة دو کمیت پایایی و دشواری در صورت سؤال ترجمهای و چندگزینهای برای سنجش دانش دستوری طراحی شده است. ابتدا، سند مشخصات آزمون دارای دو بخش ترجمهای و چندگزینهای را هشت مدرس زبان با تحصیلات کارشناسیارشد و دکتری بررسی کردند. بر اساس بازخورد آنها، آزمون مورد استفاده در این پژوهش تهیه و با 158 فراگیر زبان انگلیسی با توانشهای مختلف برگزار شد. دادههای آزمون در چارچوب نظریة کلاسیک آزمون و نیز مدل راش تحلیل شد. نتایج بهدست آمده حاکی از آن است که هر دو صورت سؤال دارای پایایی خوب بود (884/0 = آلفای کرونباخ بخش ترجمهای و 845/0= آلفای کرونباخ بخش چندگزینه). براساس مدل راش، تمامی سؤالها از نظر شاخصههای برازش، مطلوب ارزیابی شد. بهعلاوه، آزمون تی مستقل تفاوتی میان دشواری این دو صورت سؤال نشان نداد (696/1=t، ۵۸= df، ۰۹۵/0= P آزمون دو دامنه). بنابراین، به نظر میرسد بتوان از صورت ترجمهای در کنار صورت متداول چندگزینهای در رویکردی نظاممند برای طراحی سؤالهای دانش دستوری استفاده کرد. | ||
کلیدواژهها | ||
پایایی؛ دشواری؛ رویکرد طراحی سؤال؛ سؤالهای ترجمهای؛ سؤالهای چندگزینهای | ||
عنوان مقاله [English] | ||
Comparing Reliability and Item Difficulty of Multiple-Choice and Translation Questions on a Test of Grammatical Knowledge | ||
نویسندگان [English] | ||
Hamed Zandi1؛ Shiva Kaivanpanah2؛ Sayyed Mohammad Alavi2 | ||
1Ph.D. in TEFL, English Department, Faculty of Foreign Languages and Literatures, University of Tehran, & Institute for Advanced studies in Basic Sciences, Tehran, I.R. Iran | ||
2Associate Professor, English Language and Literature, Faculty of Foreign Languages and Literatures, University of Tehran, Tehran, I.R. Iran | ||
چکیده [English] | ||
Multiple-choice questions are commonly employed for testing language knowledge. However, since in the recently proposed systematic approach to item writing, using various item formats is desirable and there is very few researches on the possibility of using translation items for giving variety to items on a test. The present study aims at comparing reliability and item difficulty of translation and multiple-choice item formats on a test of grammatical knowledge. First, the specifications of the tests were composed of two sections: one with translation items and the other with multiple-choice items, and then reviewed by eight English teachers with some experience in language testing. Then, the specifications were revised according to the feedback. The test for the present study was prepared, and administered to 158 English learners with mixed proficiency levels. The data was analyzed using both classical test theory and Rasch model. The results indicated that both item formats had good reliability (r translation section = 0.88, r multiple-choice section = 0.84). Also, generally, the items showed good fit in Rasch model. Furthermore, an independent t-test did not find a significant difference between two formats in terms of item difficulty (t= 1.696, df= 58, P>0.95). Therefore, based on the finding of the study, it is suggested that, in a systematic approach to item writing, translation item format can be employed alongside multiple – choice item format for measuring grammatical knowledge. | ||
کلیدواژهها [English] | ||
item difficulty, language testing, multiple-choice items, reliability, translation items, writing item | ||
مراجع | ||
Alderson, J.C., Clapham, C. and Wall, D. (1995). Language Test Construction and Evaluation. Cambridge University Press: Cambridge.
Assessment Reform Group (2002). Assessment for learning: 10 principles. Retrieved November 2012 from http://assessmentreformgroup.files.wordpress.com/2012/01/10principles_english.pdf. Cambridge, UK: University of Cambridge. School of Education.
Bachman, L. F., and Palmer, A. S. (2010). Language Testing in Practice: Oxford: Oxford University Press.
------------ (1996). Language Testing in Practice: Oxford: Oxford University Press.
Black, P., Harrison, C., Lee, C., Marshall, B., and William, D. (2004). Working inside the black box: Assessment for learning in the classroom. Phi Delta Kappan, 86(1), 8–21.
Brown J.D. and Hudson, T.D. (1998). The alternatives in language assessment. TEOSL Quarterly, 32 653-75.
Buck, G. (2001). Assessing listening. Cambridge, UK: Cambridge University Press.
Cook, G. (2010). Translation in Language Teaching. Oxford: Oxford University Press.
Davidson, F. (2012). Releasability of Language Test Specifications. Japan Language Testing Association (JLTA) Journal, 15, 1-23.
Davidson, F. and Lynch, B.K. (2002). Testcraft: A teacher’s guide to writing and using language test specification. New Haven: Yale University Press.
DeMars, C. (2010). Item Response Theory (Understanding statistics: measurement). Oxford University Press: Oxford.
Farhady, H. (2007). Teaching and testing EFL in Iran: global trends and local dilemmas. TELL, 2 75-98.
Fulcher, G. and Davidson, F. (2007). Language Testing and Assessment: An Advanced Resource Book. Oxford: Routledge.
Johnson, K. and Johnson, H. (1999). Encyclopedic dictionary of applied linguistics. Oxford: Blackwell Publishers.
Kennedy, C.A., Wilson, M., Draney, K., Tutunciyan S., and Vorp, R. (2006). ConstructMap software. Berkeley Evaluation and Assessment Research (BEAR) Center. Berkeley, CA.
Li, J. (2006). Introducing audit trails to the world of language testing. Unpublished master’s thesis. University of Illinois at Urbana-Champaign, USA: Division of English as an International Language.
Linacre, J.M. (2010). A User's Guide to WINSTEPS®. Retrieved May 2, 2010 from http://www.winsteps.com/
Linacre, J.M. (2010b) Winsteps® (Version 3.70.0) [Computer Software]. Beaverton, Oregon:Winsteps.com.
------------ (2002). What do infit and outfit, mean-square and standardized mean? Rasch Measurement Transactions 16:2 p.878.
------------ (1994). Sample Size and Item Calibration Stability. Rasch Measurement Transactions 1994 7:4.
McNamara, T.F. (1996). Measuring second language performance. Longman: Harlow.
McNamara, T. and Roever, C. (2006). Language testing: the social dimension. London, UK: Blackwell Publishing.
Morizot, J., Ainsworth, A.T. and Reise, S.P. (2007). Toward modern psychometrics: Application of item response theory models in personality research. In R. W. Robins, R. C. Fraley, & R. F. Krueger (Eds.), Handbook of Research Methods in Personality Psychology (pp. 407-423). New York: Guilford.
Purpura, J. E. (2004). Assessing grammar. Cambridge: Cambridge University Press.
Shin, D. (2012). Item writing and writers. In G, Fulcher and F, Davidson (Eds.): Routledge handbook of language testing. London: Routledge.
Spolsky, B. (2010). Language testing in historical and future perspective. In E., Shohamy and N., Hornberger (eds). Encyclopedia of language and education (2nd edition) Volume 7: Language testing and assessment: Springer: New York.
-------------- (1998). Sociolinguistics. Oxford: Oxford university press.
Turner, C.E. (2012). Classroom assessment. In G, Fulcher and F, Davidson (Eds.): Routledge handbook of language testing. London: Routledge.
Widdowson, H.G. (2003). Defining issues in English language teaching. Oxford: Oxford University Press.
William, D. (2011). What is assessment for learning? Studies in Educational Evaluation (37), 3-14. | ||
آمار تعداد مشاهده مقاله: 2,179 تعداد دریافت فایل اصل مقاله: 1,250 |