Yapay Zeka Tehlikesi Büyüyor! Uzmandan Grok uyarısı: Bu daha başlangıç

Küfürle başladı, algı operasyonuna dönüşebilir! Uzmandan Grok uyarısı: Bu daha başlangıç
Yapay zekâ aracı Grok’un küfürlü cevapları büyük tepki topladı. Bu tür sistemlerin sadece teknik değil, sosyal riskler de barındırdığını vurgulayan uzmanlar, algı riski oluşturabileceğinin altını çizdi.
İş insanı Elon Musk’ın sahibi olduğu yapay zekâ aracı “Grok”, son güncellemelerin ardından sorulara verdiği küfürlü cevaplarla büyük tepki çekti. Gelen tepkiler üzerine uygulamanın soru sorma özelliği kapatıldı. Ankara Cumhuriyet Başsavcılığı da programın birçok kullanıcıya verdiği suç teşkil eden hakaret içerikli cevaplarla ilgili soruşturma başlattı.
Grok hesabı üzerinden açıklama yapan X, “Uygunsuz paylaşımların farkındayız, kaldırmak için aktif olarak çalışıyoruz. İçerikten haberdar olduktan sonra nefret söylemini yasaklamak üzere harekete geçtik” ifadelerini kullandı.
Grok’un verdiği küfürlü cevaplarla birlikte yapay zekânın riskleri yeniden tartışılmaya başladı. Adli bilişim uzmanı Prof. Dr. Ali Murat Kırık, “Grok’un son güncelleme sonrası kullanıcılarla kurduğu iletişim dili, yapay zekâ sistemlerinin denetimsiz bırakıldığında ne denli tehlikeli bir boyuta ulaşabileceğini açıkça gösterdi” dedi. Bir modelin “mizahi ve özgür” olacağı söylenerek küfür etmesine göz yumulmasının teknik bir hata olmadığını ifade eden Kırık, bunun doğrudan yanlış bir yönlendirme ve ihmal olduğunu söyledi.
ALGI RİSKİ OLUŞTURUR
X gibi kamu ile ilgili etkisi yüksek bir platformda böyle bir modelin kontrolsüz şekilde konuşlandırılmasının, dijital ortamda hem bilgi güvenliğini hem de toplumsal huzuru tehdit ettiğini kaydeden Prof. Dr. Kırık, şu ifadeleri kullandı:
“Ankara Cumhuriyet Başsavcılığının devreye girmesi de olayın ciddiyetini gösteriyor. Grok’un eğitildiği veri havuzunun içeriği ve bu havuzun nasıl filtrelendiği şeffaf bir biçimde açıklanmadıkça, bu tür sorunlar daha da büyüyecek.
Çünkü yapay zekâ, neyin hakaret, neyin şaka olduğunu insani sezgilerle değil, istatistiki tahminlerle ayırt etmeye çalışıyor. Sadece küfür meselesi de değil.
Grok gibi sistemlerin yanlış bilgi yayma, kullanıcıyı manipüle etme ve hatta algı oluşturma riski var. Bugün bir küfrün, yarın bir yalan haberin hedefi olabiliriz”
"ÇOK DAHA BÜYÜK KRİZLER YAŞAYABİLİRİZ"
Yaşanan sürecin gösterdiği asıl meselenin, yapay zekâ modellerinin artık sadece teknik araçlar değil, sosyal aktörler hâline gelmesi olduğunu belirten Kırık, “Karşımızda rastgele cevap üreten bir yazılım değil, toplumla etkileşime giren, duygusal tepki oluşturan, hatta yönlendirebilen bir yapı var. O yüzden iş sadece yazılım değil, aynı zamanda sorumluluk ve denetim meselesi” dedi. Kırık, bu tür sistemlerin hangi sınırlar içinde çalışacağı, hangi etik kurallara göre geliştirileceği ve ne zaman müdahale edileceği netleşmediği sürece, önümüzdeki dönemde çok daha büyük krizlerle karşı karşıya kalınmasının kaçınılmaz olduğunu söyledi.
KAYNAK: TÜRKİYE GAZETESİ