İngiliz istihbarat teşkilatı yapay zekâ sohbet botlarına karşı uyardı

İngiltere istihbarat teşkilatı, yapay zekâ sohbet robotlarının oluşturdukları tehlikelere karşı uyarılarda bulunurken insanların hangi bilgileri açığa çıkardıklarına dikkat etmelerini tavsiye etti.

İngiliz devletini siber saldırılara ve tehditlere karşı korumak amacıyla kurulan Devlet İletişim Merkezi’nin (GCHQ) parçası olan Birleşik Krallık Ulusal Siber Güvenlik Merkezi (NCSC) yapay zeka konusunda insanları uyardı.
Yapay zeka destekli chatbotların güvenlik riskleri, küresel olarak artan kullanımlarıyla birlikte endişe yaratıyor. İngiltere Ulusal Siber Güvenlik Merkezi, ChatGPT gibi chatbotların potansiyel risklerini vurgulayarak konuya dikkatleri çekmek istiyor. NCSC tarafından yayımlanan bir makalede, büyük dil modellerinin (LLM) etkileyici olsalar da sihirli bir araç olmadıkları, yapay genel zeka seviyesine ulaşmamış oldukları ve ciddi kusurlar barındırdıkları belirtiliyor.

İngiliz istihbaratı yapay zekâ konusunda uyardı
NCSC, ChatGPT ve GPT-4 gibi yapay zekâ araçları ve dil modellerinin yanılabileceğini, yanlış bilgiler üretebileceğini, önyargılı olabileceğini ve toksik içerikler oluşturma eğiliminde olabileceğini vurguluyor. Hassas kullanıcı sorularının OpenAI gibi sağlayıcılar tarafından görünebileceği endişesi ise önemli bir sorun olarak görülüyor. Örneğin, açığa çıkabilecek sağlık sorunları gibi hassas konular, gelecekteki chatbot sürümlerinin eğitimi için kullanılabilir. Ayrıca, bir CEO’nun bir çalışanını nasıl kovacağı gibi hassas bilgilerin sorulabileceği bir senaryo da söz konusu. Dolayısıyla ChatGPT veya Bing gibi sohbet araçlarında yapılan tüm sorgular esasında bir veri olarak OpenAI’ın sunucularına gidiyor ve hangi bilgilerin verildiğine dikkat edilmesi gerektiği belirtiliyor.

Bu endişeler nedeniyle Amazon ve JPMorgan gibi şirketler, özellikle hassas bilgilerin sızabileceği endişesiyle çalışanlarına ChatGPT kullanmamalarını istiyor. NCSC, ayrıca LLM’lerin siber suçlulara zararlı yazılımlar yazma becerisi kazandırabileceğini de aktarıyor. Bu durum, güvenlik araştırmacıları tarafından Ocak ayında keşfedilen ChatGPT’nin, hem “eğitici” bir araç hem de kötü amaçlı yazılım oluşturma platformu olarak kullanıldığı haberleriyle de desteklenmekte. Daha önceki haberlerimizde yeni GPT-4’ün elle çizilen bir taslaktan çalışır bir web sitesi oluşturduğunu aktarmıştık. Bunun gibi yöntemler iyi amaçla da kullanılabilir kötü amaçla da.

Siber suç faaliyetlerini artırabilirler
Sonuç olarak İngiliz istihbarat teşkilatı, yapay zekâ destekli chatbotların kullanımında, özellikle hassas bilgilerin açığa çıkmasına neden olabilecek soruları girdi olarak kullanırken dikkat edilmesi gerektiğine işaret ediyor. Ayrıca, yapay zekâ destekli botların, siber suç faaliyetlerini daha da geliştirme olasılığına karşı da uyarılarda bulunuyor. Ek olarak veri güvenliği konusu da bir diğer tartışmalı konu. OpenAI her ne kadar kendisini kâr amacı gütmeyen bir kuruluş olarak nitelese de ChatGPT Plus’ı ücretli olarak sunuyor. Ayrıca Microsoft, OpenAI’ı satın almasa da milyarlarca dolarlık yatırımı yaparak şirketin teknolojilerini kendi hizmetlerinde kullanıyor. Bu nedenle her gün yüz milyonlarca kişinin kullandığı ChatGPT’den elde edilen verilerin bağımsızlığı daha da önemli bir hale geliyor.

Bunlar da hoşunuza gidebilir...

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir