Yapay Zekâlar YKS’ye Girdi! Sıralama Şaşırttı!
YKS sorularını çözen yapay zekâlar arasında DeepSeek 21 bininci, Gemini 27 bininci olurken ChatGPT ilk 650 bine girebildi. En büyük sorun: Matematik.
YKS sorularını çözen yapay zekâlar arasında DeepSeek 21 bininci, Gemini 27 bininci olurken ChatGPT ilk 650 bine girebildi. En büyük sorun: Matematik. YAPAY ZEKÂLARIN YKS TESTİ: EN BAŞARILI DEEPSEEK ÇIKTI Ölçme, Seçme ve Yerleştirme Merkezi (ÖSYM) tarafından 21-22 Haziran 2025 tarihlerinde düzenlenen Yükseköğretim Kurumları Sınavı’na (YKS), bu yıl üç farklı yapay zekâ uygulaması da “katıldı”. MEF Üniversitesi Endüstri Mühendisliği öğrencisi Alp Ünlü’nün girişimiyle yapılan deneyde, yapay zekâların YKS performansı test edildi. Deneye ChatGPT, Gemini ve DeepSeek isimli modeller katıldı. SORULAR TEK TEK GÖNDERİLDİ, ZEKÂLAR YANITLADI Ünlü, sınav sonrası yayımlanan Temel Yeterlilik Testi (TYT) ve Alan Yeterlilik Testleri (AYT) sorularını cevap anahtarlarını çıkararak yapay zekâlara gönderdi. Ancak sınavın PDF'lerini doğrudan yüklemek mümkün olmayınca, soruların görüntüleri yapay zekâlara tek tek gönderildi. Ünlü, “Her yanlışın doğruları götürdüğünü belirtip, emin olunmayan soruların boş bırakılmasını istedim” dedi. MATEMATİKTE ZORLANDILAR, SÖZELDE BAŞARILI OLDULAR Yapay zekâ modelleri Türkçe ve sözel alanlarda daha yüksek başarı gösterirken, matematik testlerinde ciddi zorluk yaşadı. ChatGPT, 40 soruluk TYT matematik testinde işlem süresi istedi. Gemini ise sınavın ortasında tıkanarak, “Ben bir dil modeli olmadığım için bu beceriye sahip değilim” mesajı verdi. Ancak felsefe sorularını çözmeyi tercih etti. PUANLAR VE SIRALAMALAR AÇIKLANDI Alp Ünlü, çözülen soruların net sayılarını Milli Eğitim Bakanlığı’nın çevrimiçi YKS Puan Hesaplama Motoru’na girerek sıralamaları çıkardı: ChatGPT: TYT’de 25.75, AYT’de 15 net yaptı. YKS’de ilk 650 bine girebildi. DeepSeek: TYT’de 65.5, AYT’de 48.75 net yaptı. Yaklaşık 21 bininci oldu. Gemini: TYT’de 68.25, AYT’de 48.75 netle 27 bininci sıraya yerleşti. UZMANLARDAN DEĞERLENDİRME: "HUKUKA GİRERLER AMA..." Eğitim uzmanı Cihan Yeşilyurt, DeepSeek ve Gemini'nin bu puanlarla rahatlıkla hukuk fakültelerine girebileceğini, ancak ChatGPT’nin sıralamasının baraj altında kaldığını söyledi. Yeşilyurt, “Bu yıl matematik zorlayıcıydı. Yapay zekâlar da soruları tam kavrayamamış olabilir” dedi. Hacettepe Üniversitesi’nden Prof. Dr. Tunca Doğan ise, “Yapay zekâlar bilgiye erişebilir ama sınav, uzmanlık gerektiren değerlendirme becerisi istiyor. Bu sistemleri sınava hazırlanmış aday gibi değerlendirmemek gerekir” diye konuştu. MATEMATİKTE GÖRSEL VERİ ALGI SORUNU VAR Bilişim Uzmanı Osman Demircan ise görsel veriyle çalışma sürecine dikkat çekerek, “Soruların görselleri yapay zekâlar tarafından doğru analiz edilememiş olabilir. Dil modelleri, özellikle sayı ve formül yorumlamada zorlanıyor. Bu da sözel başarılarına rağmen matematikte geride kalmalarına yol açıyor” ifadelerini kullandı. YAPAY ZEKÂLARLA SINAV DENEYİ: EĞİTİMİN GELECEĞİNE IŞIK TUTUYOR 19 yaşındaki Alp Ünlü’nün deneysel çalışması, yapay zekâların sınav performanslarını ve öğrenme modellerini daha derinlemesine anlamak adına önemli bir örnek sundu. Ünlü, “Sadece sonucu değil, nasıl ulaştıklarını da açıklamalarını istedim. DeepSeek hız ve doğrulukta öne çıktı. ChatGPT ise dilsel açıklamalarda çok iyi ama sınav başarısı daha zayıftı” diyerek süreci özetledi.