ChatGPT, Gemini, Claude ve Copilot gibi büyük dil modellerinin (Large Language Models – LLM) yükselişi, üniversite eğitiminde köklü bir paradigma değişimini beraberinde getirmiştir. İnsan dilinin geniş veri kümeleri üzerinde eğitilmesiyle ortaya çıkan bu sistemler, yazma, özetleme, çeviri, problem çözme ve fikir üretimi gibi akademik görevlerde insan benzeri bir üretkenlik sunmaktadır. Bu özellikleriyle LLM’ler, bilgiye erişimi demokratikleştiren ve öğrenmeyi hızlandıran araçlar olarak değerlendirilmektedir.
Ne var ki bu gelişmeler
eğitim sisteminin özünü oluşturan yaratıcılık, eleştirel düşünme ve özgün
üretim gibi değerleri de tehdit etmektedir. ABD ve Avrupa’daki pek çok
üniversitede öğrencilerin ödev ve makalelerini ChatGPT aracılığıyla hazırladığı
tespit edilmiş, bu da akademik dürüstlük konusundaki kaygıları
derinleştirmiştir (Markoff, 2024). Benzer endişeler Türkiye’de de
paylaşılmaktadır. Yükseköğretim Kurulu’nun 2024 tarihli Üretken Yapay Zekâ
Kullanımına Dair Etik Rehberi, yapay zekânın akademik üretimdeki etik
sınırlarını belirlemeyi ve bu konuda kurumsal farkındalık geliştirmeyi
amaçlamaktadır (YÖK, 2024). Dolayısıyla temel mesele, bu araçların kullanılıp
kullanılmayacağı değil; nasıl, hangi etik ve pedagojik ilkeler çerçevesinde
kullanılacağıdır. Bu makale, LLM’lerin yükseköğretim sisteminde yarattığı
sorunları, sunduğu fırsatları ve bu araçları insan odaklı bir öğrenme ortamına
entegre etmek için gerekli politika önerilerini detaylıca ele almaktadır.
LLM’LERİN ÜNİVERSİTE
EĞİTİMİNDE YARATTIĞI SORUNLAR
Büyük dil modellerinin
eğitim süreçlerine hızla girmesi, öğrenci merkezli öğrenme kavramının yeniden
tartışılmasına yol açmıştır. Öğrenciler, kendi düşüncelerini geliştirmek yerine
yapay zekâdan hazır metin talep ettiklerinde, düşünsel derinlik ve yaratıcılık
kaybolmakta, öğrenme süreci mekanik bir üretime dönüşmektedir. Eti’nin (2025)
Türkiye’de yaptığı araştırma, öğrencilerin önemli bir kısmının ChatGPT’yi
“zaman kazandırıcı” fakat “yaratıcı düşünmeyi sınırlayıcı” bir araç olarak
gördüklerini ortaya koymuştur. Bu bulgu, uluslararası çalışmalarla da
paralellik göstermektedir: Nature (2025) meta-analizine göre LLM’ler genel
öğrenme performansını artırsa da üst düzey bilişsel beceriler üzerinde sınırlı
etkiye sahiptir. Bu durum, problem çözme ve sentezleme gibi kritik becerilerin
erozyona uğraması riskini beraberinde getirmektedir.
Akademik dürüstlük
açısından da benzer bir tehlike söz konusudur. The Guardian’ın (2024)
yayımladığı bir çalışmada, öğretim elemanları yapay zekâ tarafından yazılmış 33
sınav yanıtından yalnızca birini tespit edebilmiştir. Bu durum,
ölçme-değerlendirme sistemlerinin güvenilirliğini zayıflatmakta ve “öğrenci mi,
algoritma mı üretti?” sorusunu gündeme getirmektedir. Türkiye’de de bazı
üniversiteler bu riski fark ederek politika geliştirmeye başlamıştır. Örneğin
Yeditepe Üniversitesi’nin 2025 tarihli Akademik Dürüstlük ve Yapay Zekâ
Politikası, öğrencilerin yapay zekâdan yararlandıkları takdirde bunu beyan
etmelerini zorunlu kılmaktadır. Bu tespit zorluğu, geleneksel ödev ve sınav
formatlarının kökten değişmesi gerektiği yönündeki baskıyı artırmaktadır.
Yapay zekâ metinlerinin
akıcı dili, içerik doğruluğuna dair bir “güven yanılsaması” yaratmaktadır. Time
dergisinin (2024) haberine göre, ChatGPT’nin oluşturduğu bazı akademik
metinlerde “var olmayan kaynaklara” atıf yapılmıştır. Bu tür hatalar, öğrencinin
eleştirel düşünme becerisini devre dışı bırakmakta, bilgiyi doğrulama
refleksini zayıflatmaktadır. Akşab ve Seggie (2024) bu durumu “akademik
yüzeyselleşme” olarak tanımlar ve yapay zekâya aşırı güvenin öğrenme sürecini
edilgenleştirdiğini vurgular.
Kısacası, yapay zekâ
teknolojileri doğru pedagojik rehberlik olmadan kullanıldığında, öğrenciyi
üretken bir özne olmaktan çıkararak bilgi tüketicisine dönüştürmektedir. Bu ise
üniversite eğitiminin temel hedefi olan “eleştirel, bağımsız ve yaratıcı düşünme”
yetisini zayıflatır.
LLM’LERİN EĞİTİMDE
YARATTIĞI FIRSATLAR
Öte yandan, bu
teknolojilerin sağladığı fırsatları da göz ardı etmek mümkün değildir. Yapay
zekâ destekli araçlar, öğrenmeyi kişiselleştirme potansiyeline sahiptir.
Öğrenciler, kendi bilgi düzeylerine uygun örnekler, açıklamalar veya özetler
aracılığıyla konuları daha derinlemesine kavrayabilir. Bu durum özellikle dil
engeli yaşayan öğrenciler için önemlidir; ChatGPT benzeri araçlar, yazma ve
dilbilgisi becerilerinin geliştirilmesinde etkili destek sunmaktadır (APA Blog,
2024).
Türkiye’de yapılan bazı
çalışmalar da bu yönde umut verici bulgular ortaya koymuştur. Eti (2025), yapay
zekâ araçlarının “akademik yazma kaygısını azalttığını” ve “özgüveni
artırdığını” rapor ederken, Güler, Gülşenoğlu ve Sayılır (2025) akademik
yazmada kullanılabilecek yapay zekâ araçlarını sınıflandırarak bu
teknolojilerin doğru yönlendirme ile eğitimde faydalı olabileceğini
belirtmiştir. Bu araçlar, özellikle ilk taslak oluşturma ve fikir fırtınası
aşamalarında öğrencilerin başlangıç engellerini aşmasına yardımcı
olabilmektedir.
Yapay zekâ aynı zamanda
öğretim üyeleri ve akademik araştırmacılar açısından da önemli bir verimlilik
artışı sağlamaktadır. Ders materyali üretimi, quiz hazırlığı veya metin
sadeleştirme gibi rutin işler, LLM’ler sayesinde kolaylaşmakta; bu da
akademisyenlerin pedagojik yeniliklere daha fazla zaman ayırmasına olanak
vermektedir (Kasneci vd., 2023). Dahası, LLM’ler akademik araştırma
süreçlerinde de bir asistan rolü üstlenebilir. Literatür taraması özetleri,
hipotez geliştirme aşaması için çeşitli bakış açılarının hızlıca sentezlenmesi,
hatta büyük veri setlerinin analizi için gerekli kod yazımında hızlı prototip
oluşturma gibi görevler, bilimsel üretkenliği artırma potansiyeline sahiptir.
Dolayısıyla, yapay zekâyı bütünüyle tehdit olarak görmek yerine, onu eğitimin
“yardımcı bileşeni ve araştırma ortağı” olarak konumlandırmak daha gerçekçi bir
yaklaşımdır.
ETİK, PEDAGOJİK VE
KURUMSAL ÇÖZÜM ÖNERİLERİ
Yapay zekânın
yükseköğretim sistemine kalıcı biçimde yerleştiği artık tartışmasız bir
gerçektir. Bu durum, üniversiteleri hem etik hem de kurumsal düzeyde yeni
düzenlemeler yapmaya zorlamaktadır. İlk olarak, açık ve tutarlı yapay zekâ
politikaları geliştirilmelidir. Bu konuda Yükseköğretim Kurulu’nun 2024 tarihli
etik rehberi önemli bir başlangıçtır; ancak rehberin üniversiteler düzeyinde
içselleştirilmesi ve uygulanabilir yönergelere dönüşmesi gerekmektedir (YÖK,
2024).
Bu politikaların
temelinde “yasaklama” değil, “sorumlu ve etik kullanım” anlayışı yer almalıdır.
Bu etik çerçeve, yalnızca intihal riskini değil, aynı zamanda öğrenci ve
araştırma verilerinin uluslararası ticari LLM sağlayıcılarına aktarılmasıyla
ortaya çıkan gizlilik ve güvenlik risklerini de kapsamalıdır. Kurumlar,
özellikle hassas verilerin işlenmesi söz konusu olduğunda, bu araçların
kullanımına net sınırlar koymalıdır. UNESCO (2023) raporu da, yapay zekâ
etiğinin eğitim müfredatlarına entegre edilmesi gerektiğini vurgular.
Öğrenciler yalnızca bu araçları nasıl kullanacaklarını değil, aynı zamanda
neden ve ne zaman kullanmamaları gerektiğini de öğrenmelidir.
Pedagojik düzeyde ise
yapay zekâ, yasaklanacak bir unsur olmaktan çıkarılıp öğrenmenin bir parçası
hâline getirilmelidir. Öğrencilerin ChatGPT gibi araçlarla üretilen metinleri
analiz ederek hatalarını bulmaları, hem eleştirel düşünmeyi hem de etik farkındalığı
artırır. Bu yaklaşım, Akşab ve Seggie’nin (2024) de belirttiği gibi, “yapay
zekâyı rakip değil, öğretim partneri olarak yeniden konumlandırma” fikrine
karşılık gelir. Bu, LLM’lerin ‘nihai ürün’ üretmek yerine, ‘taslak’ ve ‘süreç’
aşamalarında destekleyici bir rol üstlenmesi anlamına gelmektedir.
Değerlendirme sistemleri
de bu dönüşüme ayak uydurmalıdır. Eaton (2024), yapay zekâ çağında “ürün
odaklı” ölçme anlayışının yerini “süreç temelli ve otantik” değerlendirmeye
bırakması gerektiğini savunur. Bu bağlamda, öğrencilerden sözlü sunumlar, canlı
tartışmalar, süreç dosyaları veya ödev taslaklarını aşamalı olarak teslim
etmeleri istenebilir. Türkiye’de bu yönde bazı uygulamalar başlamış, örneğin
bazı üniversiteler öğrencilerden ödev taslaklarını ve düzeltme notlarını teslim
etmelerini istemeye başlamıştır.
Bu dönüşümün başarısı
büyük ölçüde öğretim üyelerinin dijital yetkinliklerine bağlıdır. EDUCAUSE
(2024) verilerine göre, akademisyenlerin yalnızca %38’i bu konuda yeterli
hissetmektedir. Dolayısıyla, üniversiteler “Yapay Zekâ Pedagojisi” konulu
hizmet içi eğitimler düzenlemeli, öğretim elemanlarını bu dönüşüme
hazırlamalıdır.
Son olarak teknolojik
doğrulama mekanizmaları da destekleyici bir unsur olmalıdır. Turnitin, GPTZero
gibi tespit araçları kusursuz olmasa da etik beyan sistemiyle birlikte
uygulandığında etkili bir denetim sağlar (OpenAI, 2023). Uzun vadede, yapay
zekâ metinlerine dijital su işareti (watermark) eklenmesini öngören sistemler
bu süreci daha güvenilir hâle getirecektir (OpenAI, 2024). Ayrıca,
üniversiteler kendi açık kaynaklı, Türkçe veriyle eğitilmiş yerel modellerini
geliştirerek hem veri gizliliğini koruyabilir hem de akademik bağımsızlıklarını
güçlendirebilir, böylece uluslararası platformlara bağımlılığı azaltabilirler.
SONUÇ: İNSAN VE YAPAY
ZEKÂ ARASINDA YENİ BİR AKADEMİK ORTAKLIK
Yapay zekâ destekli büyük
dil modelleri, üniversite eğitimi için kaçınılmaz bir realite olup, temel ayrım
‘kullanıp kullanmamakta’ değil, ‘sorumlu ve pedagojik olarak zenginleştirici
bir şekilde yönetip yönetmemekte’ yatmaktadır. Bu teknolojiler, yönetişim ve
etik ilkelerle desteklenmediği sürece, özgün düşünme ve akademik dürüstlük
kültürünü zedeleme potansiyeline sahiptir. Fakat doğru çerçeveyle
kullanıldığında, öğrenmeyi hızlandıran, bilgiye erişimi kolaylaştıran ve
yaratıcılığı teşvik eden bir araca dönüşebilir.
Üniversitelerin görevi,
yapay zekâyı yasaklamak değil; insan aklıyla birlikte çalışan, onu destekleyen
bir ortak hâline getirmektir. YÖK’ün (2024) etik rehberi, bu yolda önemli bir
ilk adımdır. Bundan sonrası, kurumların ve bireylerin etik olgunluğuna, dijital
farkındalığına ve pedagojik yaratıcılığına bağlıdır. Eğer bu dönüşüm bilinçli
biçimde yönetilirse, yapay zekâ insan zekâsının yerini değil, ona eşlik eden
yaratıcı bir gücü temsil edecektir. Bu da 21. yüzyılın üniversiteleri için yeni
bir entelektüel ortaklık döneminin başlangıcı anlamına gelir.
KAYNAKÇA
Akşab, M. & Seggie,
F. N. (2024). Yükseköğretimde Yapay Zekâ: Öğretim, Araştırma ve Topluma Hizmet
Açısından Bakış. Eğitimde Kuram ve Uygulama Dergisi, 20(2), 135–158.
Dawson, P. (2024).
Generative AI and the Ethics of Academic Integrity. Journal of Academic Ethics,
22(3), 411–429.
Eaton, S. (2024).
Authentic Assessment in the Age of AI: From Product to Process. International
Review of Education, 70(2), 145–166.
EDUCAUSE. (2024). Faculty
Preparedness for Generative AI Integration. Washington, DC.
Eti, H. S. (2025).
Yükseköğretimde Yapay Zekâ: Öğrenci Tutumları ve Akademisyen Görüşleri.
İktisadi, İdari ve Siyasal Araştırmalar Dergisi, 10(26), 132–153.
Floridi, L. &
Chiriatti, M. (2020). GPT-3: Its Nature, Scope, Limits, and Consequences. Minds
and Machines, 30(4), 681–694.
Güler, E., Gülşenoğlu,
B., & Sayılır, A. (2025). Akademik Yazmada Kullanılabilecek Yapay Zekâ
Araçlarının Sınıflandırılması. Yükseköğretim ve Bilim Dergisi, 15(1), 47–68.
Huang, Y. (2024). AI
Declarations in Academic Submissions: A New Paradigm for Transparency. Higher
Education Policy Review, 37(1), 52–73.
Kasneci, E. vd. (2023).
ChatGPT for Good? On Opportunities and Challenges of Large Language Models for
Education. Learning and Individual Differences, 103, 102274.
Markoff, M. (2024).
Academic Integrity in the Age of Generative AI. The Chronicle of Higher
Education, 7 Mart 2024.
OpenAI. (2023). AI Text
Classifier: Limitations and Future Directions.
OpenAI. (2024).
Provenance and Watermarking for Responsible AI Use.
UNESCO. (2023).
Guidelines for the Ethical Use of Artificial Intelligence in Education. Paris.
Yeditepe Üniversitesi
(2025). Akademik Dürüstlük ve Yapay Zekâ Politikası.
Yükseköğretim Kurulu
(YÖK). (2024). Yükseköğretim Kurumları Bilimsel Araştırma ve Yayın
Faaliyetlerinde Üretken Yapay Zekâ Kullanımına Dair Etik Rehber. Ankara: YÖK
Yayınları.
Hiç yorum yok:
Yorum Gönder
Yorum yazarak, düşüncelerinizi benimle paylaşabilirsiniz.