Arkadaşlar güzel bir haber gördüm. Burada da daha önce tartıştık yapay zeka ne kadar tehlikeli diye. Bir güvenlik şirketi olan PalisadeAI, bazı komutlarla yapay zekanın kendini kapatmasını istediği deneysel olayda o3 modelinin kapanmayı sabote ettiği görüldü.
Yapılan 100 denemenin 7 tanesinde yapay zeka kafasına göre hareket ederek komutlara uymayarak bireysel davrandı. Kapanma durumu için verilen kodu kendi kendine değiştirerek talimatın çalışmaması için kodu yeniden bile yazdı.
Bugün hayatın içinde olan yapay zeka, robotlara ve savaş ürünlerine entegre edilir ve %7’lik sapmayla bireysel saldırı yaparsa olacakları bir düşünsenize ?
Kaynak :
https://www.webtekno.com/haber/amp/158741Gerçeği yansıttığını sanmıyorum. Ne kadar ileri git dersen o kadar giderler. İleri, şuraya kadar git ama ondan sonra çok az daha gidebilirsin derler sonra çok az daha gittiğinde kendi gitti diye haber yaparlar. Yani şu an için söylenilenin mümkün olduğunu sanmıyorum. Yapay zekanın kafasına göre hareket edebilmesi demek de bir sınır içinde olacak bir şey. Belki şu an için bu böyle ama fazlası olur mu yakın zamanda bilmiyorum. Fazlasından kastım da sınırlarını kendisinin belirleyebileceğini söylemek bile bir sınır o yüzden çok uç örnekler olacak yani daha zaman var buna.
Foruma ilk başladığımda sorduğum "Birkaç Soru" başlıklarında buna benzer sınırlar vardı yani kareyi siz çiziyorsunuz o karenin ne kadar büyük olduğu şaşırtabilir ama karenin dışına çıkamaz.