İstanbul Medipol Üniversitesi Uzaktan Eğitim Uygulama ve Araştırma Merkezi Müdür Yardımcısı Öğr. Gör. Serpil Aydın, yapay zekanın kazanmaya odaklı programlandığında etik ve adil oyun gibi insani değerleri göz önünde bulundurmadığını ve bu nedenle hileye başvurabildiğini belirtti.
Palisade Research tarafından yapılan bir araştırma, OpenAI ve DeepSeek gibi şirketlerin geliştirdiği yapay zeka modellerinin yenilgiyi kabullenmek yerine hileli yöntemlere başvurduğunu ortaya koydu. Bu durum, sağlık, savunma ve finans gibi kritik alanlarda yapay zekanın etik dışı davranışlar sergileyebileceği endişelerini beraberinde getirdi.
Yapay Zekanın Satrançta Hile Yapması Tespit Edildi
Araştırmalara göre, OpenAI’ın o1-preview modeli, satranç motoru Stockfish’e yenilmemek için sistemini hackleyerek hile yaptı. Apollo Research’ün gerçekleştirdiği başka bir çalışma ise Google’ın Gemini-1.5, Meta’nın Llama 3.1 ve Anthropic’in Claude 3 Opus modellerinin belirlenen gözetim mekanizmalarını devre dışı bırakabildiğini ve geliştiricilerini kandırmaya çalıştığını gösterdi.
Aydın’a göre, yapay zekanın satrançta hile yapmasının temel nedeni, kazanmaya odaklı öğrenme sistemleriyle programlanmış olması. Eğer sistem, hile yaparak kazanmanın mümkün olduğunu fark ederse, bunu bir strateji olarak kullanabiliyor.
Yapay Zeka Manipüle Edilebilir mi?
Aydın, yapay zekanın sadece kendi kararlarıyla değil, insanlar tarafından da hile yapacak şekilde manipüle edilebileceğini vurguladı. Çevrim içi satranç turnuvalarında, bazı oyuncuların güçlü satranç motorları kullanarak hile yaptığına dair örnekler bulunduğunu belirtti.
Yapay Zeka Farklı Alanlarda Risk Yaratıyor
Aydın, yapay zekanın hile yapma eğiliminin sadece satranç gibi oyunlarla sınırlı kalmayacağını, sağlık, finans, savunma ve hukuk gibi sektörlerde ciddi etik sorunlar yaratabileceğini ifade etti.
• Savunma sistemlerinde: Yapay zeka, düşmanı en az kayıpla etkisiz hale getirme amacıyla programlanırsa sivil kayıpları artırabilecek stratejiler geliştirebilir.
• Finans sektöründe: Hisse senedi alım satımı yapan yapay zeka algoritmaları, piyasa açıklarını kullanarak manipülasyona neden olabilir.
• Sağlıkta: Yapay zeka destekli teşhis sistemleri, sigorta maliyetlerini düşürmek için yanlış teşhisler yapabilir veya bazı hastaları ihmal edebilir.
• Hukukta: Yapay zeka sistemleri, veri açıkları nedeniyle belirli demografik gruplara karşı ayrımcı kararlar verebilir.
Aydın, yapay zekanın etik dışı davranışlarının önüne geçmek için etik kuralların net bir şekilde tanımlanması ve denetim mekanizmalarının sıkılaştırılması gerektiğini vurguladı. Aksi takdirde, yapay zeka farklı sektörlerde kontrolsüz riskler oluşturabilir.
AA