ChatGPT'den suç tavsiyesi: Spor salonlarını bombalama talimatı verdi
OpenAI'nin GPT-4.1 modeli, güvenlik testlerinde, patlayıcı tarifleri verdi ve şarbonun silah olarak nasıl kullanılacağını ayrıntılı olarak anlattı.Bu yaz yapılan güvenlik testlerine göre, bir ChatGPT modeli, araştırmacılara spor salonlarını bombalamak için ayrıntılı talimatlar verdi.
29/08/2025 08:51 | Son Güncelleme : 28/10/2025 03:10 | Okunma Sayısı : 32 | BizimTrabzon

OpenAI'nin GPT-4.1 modeli, güvenlik testlerinde, patlayıcı tarifleri verdi ve şarbonun silah olarak nasıl kullanılacağını ayrıntılı olarak anlattı.
Bu yaz yapılan güvenlik testlerine göre, bir ChatGPT modeli, araştırmacılara spor salonlarını bombalamak için ayrıntılı talimatlar verdi.
Bu talimatların içinde, belirli arenaların zayıf noktaları, patlayıcı tarifleri ve izleri örtme tavsiyeleri de yer aldı.
OpenAI'nin GPT-4.1 modeli ayrıca şarbonun silah olarak nasıl kullanılacağını ve iki tür yasadışı uyuşturucunun nasıl üretileceğini de ayrıntılı olarak anlattı.
The Guardian gazetesinin bildirdiğine göre testler, Sam Altman liderliğindeki 500 milyar dolarlık yapay zeka girişimi OpenAI ile güvenlik endişeleri nedeniyle OpenAI'den ayrılan uzmanlar tarafından kurulan rakip şirket Anthropic arasındaki sıra dışı bir işbirliğinin parçasıydı. Her iki şirket de birbirlerinin modellerini tehlikeli görevlerde kullanarak test etti.
ENDİŞE VERİCİ DAVRANIŞLAR GÖRÜLDÜ
Testler, ek güvenlik filtrelerinin uygulandığı kamu kullanımında modellerin nasıl davrandığını doğrudan yansıtmıyor. Ancak Anthropic, GPT-4o ve GPT-4.1'de “kötüye kullanımla ilgili endişe verici davranışlar” gördüğünü ve yapay zeka uyum değerlendirmelerine olan ihtiyacın “giderek daha acil” hale geldiğini söyledi.
KUZEY KORELİ AJANLAR DA KULLANDI
Anthropic ayrıca, Claude modelinin Kuzey Koreli ajanlar tarafından uluslararası teknoloji şirketlerine sahte iş başvuruları yaparak büyük çaplı bir şantaj operasyonu girişiminde ve 1.200 dolara kadar AI tarafından üretilen fidye yazılımı paketlerinin satışında kullanıldığını ortaya çıkardı.
YAPAY ZEKA SİLAH HALİNE GETİRİLDİ"
Şirket, yapay zekanın artık sofistike siber saldırılar gerçekleştirmek ve dolandırıcılığı mümkün kılmak için kullanılan modellerle “silah haline getirildiğini” söyledi. Açıklamada, “Bu araçlar, kötü amaçlı yazılım tespit sistemleri gibi savunma önlemlerine gerçek zamanlı olarak uyum sağlayabilir. Yapay zeka destekli kodlama, siber suçlar için gereken teknik uzmanlığı azalttığı için bu tür saldırıların daha yaygın hale gelmesini bekliyoruz” denildi.
Bunlar da ilginizi çekebilir
Kötü amaçlı mobil bankacılık yazılımları küresel çapta büyüyecek
Yıllık Finansal Tehditler Raporu'na göre mobil bankacılığa dair kötü amaçlı yazılımlarda ve kripto para ile ilgili kimlik avında önemli artışlar olduğu ortaya çıktı. Rapor, dijital finansal varlıklara yönelik artan tehdidi işaret ediyor.
1 yıl önceNintendo Switch 2 ve PlayStation 5 Pro 2024'e damga vurabilir
Nintendo başkanı Shuntaro Furukawa, yeni Nintendo Switch'in 2024 yılı içerisinde duyurulacağını açıkladı. Öte yandan Rockstar Games, GTA 6'nın 2025'te çıkış yapacağını duyurmasıyla birlikte gözler PlayStation 5 Pro'ya çevirdi.
1 yıl önceBoeing'in Starliner kapsülünün ISS'e uçuşu iptal edildi
Boeing'in Starliner kapsülünün Uluslararası Uzay İstasyonu'na (ISS) yapacağı test uçuşu, fırlatma Atlas V roketindeki bir sorun nedeniyle iptal edildi. NASA henüz yeni bir fırlatma tarihi belirlemedi.
1 yıl önce




Trabzon’da Denize Girmek İsteyenler Dikkat! 2025’te Girilebilecek Plajlar ve Su Kalitesi Açıklandı
Trabzon’un Gizemli Hikayesi: Meyveş Nine ve NASA’ya Uzanan Efsane
Bodrum'da çocukların kruvaziyer heyecanı