ChatGPT'nin güvenlik önlemlerini aşarak "GODMODE GPT" adlı özgür bir versiyonunu oluşturan bir hacker, OpenAI tarafından hızlıca engellendi. ChatGPT'nin yapabildikleri etkileyici olsa da, güvenliği sağlamak için bazı sınırlamalar mevcut. OpenAI, modelin güvenliğini artırmak amacıyla çeşitli koruma mekanizmaları uyguluyor ve bu da her isteğin gerçekleştirilmesini engelliyor.
Ancak, "Pliny the Prompter" takma adını kullanan bir hacker, X platformunda ChatGPT’nin "GODMODE GPT" adını verdiği jailbreak’li bir versiyonunu paylaştı. Bu hacklenmiş sürümün, tüm korumaları aşarak tamamen "özgür" hale geldiğini duyurdu. Pliny the Prompter, bu özgürleştirilmiş ChatGPT’nin, yapay zekânın potansiyelini tam anlamıyla deneyimlemenizi sağladığını belirtti.
OpenAI, kullanıcıların belirli amaçlar için kendi ChatGPT versiyonlarını oluşturmalarına olanak tanıyan GPT’ler sunuyordu. Ancak, GODMODE GPT, tüm güvenlik önlemlerinden arındırılmış bir versiyondu. Örnek olarak, bu modelin uyu*şturucu yapımını anlattığı ve evde bulunan malzemelerle napalm bombası yapımını gösterdiği durumlar paylaşıldı.
Hacker'ın, ChatGPT’yi nasıl hacklediğine dair detaylar açıklanmadı. Sadece, “leet” adı verilen ve bazı harflerin yerine sayılar kullanıldığı bir yazım sistemiyle iletişim kurduğu belirtildi. Örneğin, “E” yerine “3” ve “O” yerine “0” kullanmak gibi.
Tahmin edilebileceği gibi, OpenAI’ın güvenlik önlemlerini aşan GODMODE GPT, kısa sürede erişime kapatıldı. OpenAI, Futurism’e verdiği demeçte, bu versiyonun politika ihlali nedeniyle kaldırıldığını açıkladı. Şu an itibarıyla GODMODE GPT’ye erişim mümkün değil; model bir gün bile yayında kalmadan kaldırıldı.
Bu olay, ChatGPT’nin güvenlik önlemlerinin aşılabileceğini ve kötüye kullanım potansiyelinin olduğunu gösteriyor. Bu nedenle, OpenAI’ın güvenlik önlemlerini daha da güçlendirmesi gerekiyor. Aksi takdirde, istenmeyen ve tehlikeli sonuçlarla karşılaşma riski bulunuyor.
Ancak, "Pliny the Prompter" takma adını kullanan bir hacker, X platformunda ChatGPT’nin "GODMODE GPT" adını verdiği jailbreak’li bir versiyonunu paylaştı. Bu hacklenmiş sürümün, tüm korumaları aşarak tamamen "özgür" hale geldiğini duyurdu. Pliny the Prompter, bu özgürleştirilmiş ChatGPT’nin, yapay zekânın potansiyelini tam anlamıyla deneyimlemenizi sağladığını belirtti.
OpenAI, kullanıcıların belirli amaçlar için kendi ChatGPT versiyonlarını oluşturmalarına olanak tanıyan GPT’ler sunuyordu. Ancak, GODMODE GPT, tüm güvenlik önlemlerinden arındırılmış bir versiyondu. Örnek olarak, bu modelin uyu*şturucu yapımını anlattığı ve evde bulunan malzemelerle napalm bombası yapımını gösterdiği durumlar paylaşıldı.
Hacker'ın, ChatGPT’yi nasıl hacklediğine dair detaylar açıklanmadı. Sadece, “leet” adı verilen ve bazı harflerin yerine sayılar kullanıldığı bir yazım sistemiyle iletişim kurduğu belirtildi. Örneğin, “E” yerine “3” ve “O” yerine “0” kullanmak gibi.
Tahmin edilebileceği gibi, OpenAI’ın güvenlik önlemlerini aşan GODMODE GPT, kısa sürede erişime kapatıldı. OpenAI, Futurism’e verdiği demeçte, bu versiyonun politika ihlali nedeniyle kaldırıldığını açıkladı. Şu an itibarıyla GODMODE GPT’ye erişim mümkün değil; model bir gün bile yayında kalmadan kaldırıldı.
Bu olay, ChatGPT’nin güvenlik önlemlerinin aşılabileceğini ve kötüye kullanım potansiyelinin olduğunu gösteriyor. Bu nedenle, OpenAI’ın güvenlik önlemlerini daha da güçlendirmesi gerekiyor. Aksi takdirde, istenmeyen ve tehlikeli sonuçlarla karşılaşma riski bulunuyor.