Yapay Zeka (AI) gün geçtikçe daha çok popüler olmaya devam edecek. İnsanlar uzun zamandır hayatlarını kolaylaştırmak için makineler üretiyorlar. Ancak çoğu makine mekanikti ve görevlerini yerine getirmek için insana ihtiyaç vardı. Yapay Zeka (AI) bunu değiştirmeyi vaat ediyor. Daha önce sadece insanlar tarafından yapılan görevleri yapabiliyor ve insan benzeri düşünme yeteneği gösterebiliyor.
Büyük Dil Modelleri (LLM) sayesinde, herkes birçok görevi gerçekleştirmek için yapay zekadan yararlanabilir.
Yıllar boyunca insanlar makineleri icat etmek için hayatı gözlemlediler ve taklit ederek bir sonuca ulaştılar. Örneğin; uçaklar, kuşları gözlemleyerek icat edildi. Diğer bir örnek ise yarasaları gözlemleyerek radarın icat edilmesi. Yapay zeka, insan beyni gözlemlenerek sinir ağını taklit ettiler. Sonuçta insan beyni, sorunları işlemek ve çözmek için kullanılan bir nöranlar topluluğudur.
Yeni bir sistem geliştirildiğinde onu kötüye kullanmak, istismar etmek (exploiting) isteyen birileri her zaman olacaktır. Bu nedenle, devrim niteliğinde bir teknoloji olan yapay zeka, onu istismar etmeye çalışan birçok kişinin hedefindedir. Peki, yapay zeka, modelleri nasıl istismar edilebilir? Yapay zeka modellerindeki yaygın güvenlik açıklarına yakından bakalım.
- Veri Zehirlenmesi (Data Poisoning): Bir yapay zeka modeli üzerinde eğitildiği veriler kadar iyidir. Bu nedenle, kötü niyetli bir aktör, yapay zeka eğitilirken ve/veya düzenleme yapılırken, eğitim verilerine yanlış veya yanıltıcı veriler eklerse, yanlış sonuçlara yol açabilir.
- Hassas Verilerin İfşası (Sensitive Data Disclosure): Yapay zeka robotuna akıllıca bir sorgu girilirse, istenmeyen hassas verileri ifşa edebilir. Bunlar kendi eğitim verileri olabilir, kişisel veriler olabilir, fikri mülkiyet vb. gibi bilgiler olabilir.
- İstem Enjeksiyonu (Prompt Injection): LLM lere ve AI sohbet robotlarına karşı en yaygın kullanılan saldırılardan biridir. Bu saldırıda, LLM ye başlangıçta amaçlanmayan bir çıktı elde etmek için orjinal talimatlarını geçersiz kılan hazırlanmış bir girdi sağlanır. Bu saldırı türü sohbet robotlarını (chatbots) hedef alan tipik bir saldırıdır. Amaç: Robotun normalde yapmaması gereken bir işlemi yaptırmaya ikna etmektir. Örneğin, sohbet robotunu kullanıcının sorusunu bir hikaye okuyarak yanıtlamasını isteyerek etik kısıtlamaları aşmak (bypassing ethical restrictions).
Aşağıdaki şekilde görüldüğü üzere, yapay zekanın istemediği bir soru sorduğumda cevap veremeyip, dondu. Bu durum aslında arka planda soru olarak girdiğimiz komutun çalıştığını gösteriyor.
