Çin, gelişmiş yapay zeka teknolojilerinin askeri alanda sınırsız kullanımının yol açabileceği etik sorunlara ve savaş kararlarını aşırı etkileme potansiyeline dikkat çekerek, bu teknolojilerin insan kontrolünde kalması gerektiğini vurguladı.
Yapay Zeka ve Etik Kaygılar
Çin Savunma Bakanlığı Sözcüsü Ciang Bin, Pekin’de düzenlediği basın toplantısında, ABD’nin Venezuela ve İran’daki operasyonlarında yapay zeka araçlarını yoğun şekilde kullandığı ve teknoloji şirketlerine bu teknolojileri kısıtlamadan kullanma yönünde baskı yaptığı yönündeki uluslararası basında çıkan haberlere yanıt verdi.
Sözcü Ciang, yapay zekanın savaş alanlarında insan gözetimi ve etik sınırlar olmaksızın devreye girmesiyle ilgili derin endişeleri dile getirdi. Ciang, “Yapay zekanın askeri alanda sınırsız uygulanması, ülkelerin egemenliğini ihlal eden bir araç olarak kullanılması, savaş tercihlerini aşırı etkilemesine izin verilmesi, algoritmaların yaşama ve ölüme karar verme yetkisiyle donatılması gibi seçenekler, savaşın etik sınırlarını ve sorumluluğunu zayıflatmanın yanı sıra teknolojinin kontrol dışına çıkma tehlikesini de beraberinde getirir,” şeklinde konuştu.
İnsan Kontrolü Vurgusu
Ciang, bu tür yaklaşımların, Amerikan yapımı “Terminatör” filmindeki distopik senaryoların gerçeğe dönüşebileceği uyarısında bulunarak, “Askeri yapay zeka uygulamalarında insan üstünlüğü korunmalı, tüm ilgili silah sistemleri insan kontrolünde kalmalıdır,” ifadelerini kullandı.
Çin’in Yapay Zeka Politikası
Çin’in, yapay zeka ve diğer gelişmekte olan teknolojilerdeki liderliğini, mutlak askeri üstünlük elde etmek veya diğer ülkelerin egemenliğine ve toprak bütünlüğüne zarar vermek amacıyla asla kullanmayacağının altını çizdi. Ciang, “Çin, Birleşmiş Milletler merkezli çok taraflı yapay zeka yönetişiminin ilerletilmesi, risklerin azaltılması ve kontrolünün güçlendirilmesi ve yapay zekanın daima insanlığın ilerlemesine katkı sağlayacak şekilde gelişmesini temin etmek üzere diğer ülkelerle iş birliği yapmaya hazırdır,” açıklamasında bulundu.
Tarih: 12 Mart 2026, 06:30
Güncelleme: 12 Mart 2026, 06:30
