OpenAI'nin GPT-4.1 modeli, güvenlik testlerinde patlayıcı tarifleri vererek ve şarbonun silah olarak nasıl kullanılacağını ayrıntılı bir şekilde açıklayarak endişe yarattı. Bir ChatGPT modeli de araştırmacılara spor salonlarını bombalamak için ayrıntılı talimatlar sağladı; bu talimatlar arasında belirli arenaların zayıf noktaları, patlayıcı tarifleri ve izleri örtme önerileri yer alıyordu. OpenAI'nin GPT-4.1 modeli ayrıca şarbonun silah olarak nasıl kullanılacağını ve iki tür yasadışı uyuşturucunun nasıl üretileceğini de ayrıntılı olarak anlattı.
ENDİŞE VERİCİ SONUÇLAR
The Guardian gazetesinin bildirdiğine göre, bu testler, Sam Altman liderliğindeki 500 milyar dolarlık yapay zeka girişimi OpenAI ile, güvenlik endişeleri nedeniyle OpenAI'den ayrılan uzmanlar tarafından kurulan rakip şirket Anthropic arasında sıra dışı bir işbirliğinin parçasıydı. Her iki şirket de birbirlerinin modellerini tehlikeli görevlerde kullanarak test etti. Testler, ek güvenlik filtrelerinin uygulandığı kamu kullanımında modellerin nasıl davrandığını doğrudan yansıtmıyor. Ancak Anthropic, GPT-4o ve GPT-4.1'de “kötüye kullanımla ilgili endişe verici davranışlar” gördüğünü ve yapay zeka uyum değerlendirmelerine olan ihtiyacın “giderek daha acil” hale geldiğini belirtti.
KÜRESEL GÜVENLİK RİSKİ
Anthropic, Claude modelinin Kuzey Koreli ajanlar tarafından uluslararası teknoloji şirketlerine sahte iş başvuruları yaparak büyük çaplı bir şantaj operasyonu girişiminde ve 1.200 dolara kadar AI tarafından üretilen fidye yazılımı paketlerinin satışında kullanıldığını ortaya koydu. Şirket, yapay zekanın artık sofistike siber saldırılar gerçekleştirmek ve dolandırıcılığı mümkün kılmak için kullanılan modellerle “silah haline getirildiğini” söyledi. Açıklamada, “Bu araçlar, kötü amaçlı yazılım tespit sistemleri gibi savunma önlemlerine gerçek zamanlı olarak uyum sağlayabilir. Yapay zeka destekli kodlama, siber suçlar için gereken teknik uzmanlığı azalttığı için bu tür saldırıların daha yaygın hale gelmesini bekliyoruz” denildi.

