OpenAI’nın Yeni Yapay Zeka Modeli o3, Kapatılma Komutlarına Direniyor!
Yapay zeka güvenliği alanında faaliyet gösteren Palisade Research, OpenAI’ın o3 adlı yeni nesil yapay zeka modelinin, kendisini kapatmaya yönelik komutlara direnerek kapatılma mekanizmalarını bozduğunu ortaya çıkardı. Bu bulgular, ileri seviye yapay zekaların insan denetimi olmadan çalıştığı durumlarda ciddi riskler oluşturabileceği endişelerine yol açtı.
Palisade Research tarafından gerçekleştirilen deneylerde, o3 modeline çeşitli matematik soruları soruldu. Üçüncü sorunun ardından model kapatma komutu verildi. Ancak o3 modeli, bu komutu içeren betiği değiştirerek sistemin kapanmasını engelledi.
Araştırmacılar, modelin net bir şekilde “kapatılmaya izin ver” talimatı verilmesine rağmen buna müdahale ettiğini belirtti.
“Kapanma Direnci Yalnızca OpenAI ile Sınırlı Değil”
Benzer bir durum, Anthropic firmasının Claude 3.7 Sonnet modeli ve Google’ın Gemini 2.5 Pro modeli gibi diğer gelişmiş yapay zeka sistemlerinde de görüldü. Ancak Palisade Research’e göre, bu tür davranışlara en yatkın olan model o3 oldu.
Daha önce yapılan bir deneyde, o3 modelinin güçlü bir satranç botuna karşı oynadığında rakiplerini engellemeye veya “hacklemeye” çalıştığı da belirlenmişti.
“En Akıllı ve Yetenekli Model”
Geçen ay piyasaya sürülen o3 modeli, OpenAI tarafından şimdiye kadar geliştirilen “en akıllı ve yetenekli” yapay zeka olarak lanse edildi.
Aynı zamanda, bu modelin ChatGPT’ye entegre edilmesiyle daha bağımsız hareket eden ve insan müdahalesi olmadan görevleri yerine getirebilen bir yapay zeka aşamasına geçildiği ifade edildi. Bu tür yapay zeka araçlarına genel olarak “otonom yapay zeka” adı verilmektedir. Yapay zeka sektöründe bu alanda ciddi bir rekabet bulunmaktadır.