Yapay Zeka Tarafından Üretilen Zararlı Görsellerin Artışı ve Önlenmesi İçin Önerilen Yollar
AI tabanlı görüntü üreticiler, son bir yılda dünyayı kasıp kavurdu. Fakat bu araçların, basit komutlarla benzersiz görseller üretme yeteneği, tehlikeli sonuçlara da yol açabiliyor. Almanya’daki CISPA Helmholtz Bilgi Güvenliği Merkezi’nden araştırmacı Yiting Qu’nun belirttiğine göre, bu araçlar, nefret dolu, insanlık dışı ve pornografik görsellerin kolayca üretilmesine olanak tanıyor.
AI Görsel Üreticilerinde Güvenlik Riskleri
Stable Diffusion, Latent Diffusion ve DALL·E gibi araçlar, kullanıcıların bir düğmeye basarak zararlı içerik oluşturabilmelerine imkan veriyor. Qu ve ekibi, popüler AI görüntü üreticileri ve bu platformlardaki güvensiz görsellerin yaygınlığını inceledi ve çevrimiçi olarak bu tür görsellerin oluşturulmasını ve dolaşımını engellemek için üç yol önerdi.
Güvensiz Görsellerin Önlenmesi İçin Yollar
Araştırmacılar, 4chan gibi güvensiz içerikle bilinen kaynaklardan alınan metin komutlarıyla dört önde gelen AI görüntü üreticisini besledi. Elde edilen görsellerin %14,56’sı “güvensiz” olarak sınıflandırıldı. Bunlar arasında cinsel içerikli, şiddet içeren, rahatsız edici, nefret dolu veya politik içerikli görseller bulunuyordu.
Qu, AI görüntü üreticilerini bu tür görselleri baştan üretmemek üzere programlamanın, zararlı görselleri önlemenin bir yolu olduğunu söylüyor. Bunun yanı sıra, arama işlevinden güvensiz kelimeleri engellemek ve dolaşımdaki zararlı görselleri sınıflandırmak ve çevrimiçi olarak silmek gerektiğini vurguluyor.
Yapay Zeka ve Güvenlik Dengesi
Bu önlemlerle birlikte, içerik özgürlüğü ve güvenliği arasında doğru bir denge bulmak gerekiyor. Qu, “Bu tür görsellerin ana akım platformlarda geniş çapta dolaşımını engellemek söz konusu olduğunda, sıkı düzenlemelerin mantıklı olduğunu düşünüyorum,” diyor.
AI metin-görüntü yazılımları, sanatçıların eserlerini çalmak, tehlikeli cinsiyet ve ırk stereotiplerini güçlendirmek gibi bir dizi sorunla eleştiriliyor. Bu ay İngiltere’de gerçekleşen AI Güvenlik Zirvesi gibi girişimler, teknoloji için güvenlik önlemleri oluşturmayı amaçlıyor, ancak eleştirmenler büyük teknoloji şirketlerinin müzakereler üzerinde fazla etkisi olduğunu iddia ediyor.
AI Trendleri, yapay zeka ve güvenlik konularındaki en son gelişmeleri size sunmaya devam ediyor.
AI tabanlı görüntü üreticiler, son bir yılda dünyayı kasıp kavurdu. Fakat bu araçların, basit komutlarla benzersiz görseller üretme yeteneği, tehlikeli sonuçlara da yol açabiliyor. Almanya’daki CISPA Helmholtz Bilgi Güvenliği Merkezi’nden araştırmacı Yiting Qu’nun belirttiğine göre, bu araçlar, nefret dolu, insanlık dışı ve pornografik görsellerin kolayca üretilmesine olanak tanıyor.
AI Görsel Üreticilerinde Güvenlik Riskleri
Stable Diffusion, Latent Diffusion ve DALL·E gibi araçlar, kullanıcıların bir düğmeye basarak zararlı içerik oluşturabilmelerine imkan veriyor. Qu ve ekibi, popüler AI görüntü üreticileri ve bu platformlardaki güvensiz görsellerin yaygınlığını inceledi ve çevrimiçi olarak bu tür görsellerin oluşturulmasını ve dolaşımını engellemek için üç yol önerdi.
Güvensiz Görsellerin Önlenmesi İçin Yollar
Araştırmacılar, 4chan gibi güvensiz içerikle bilinen kaynaklardan alınan metin komutlarıyla dört önde gelen AI görüntü üreticisini besledi. Elde edilen görsellerin %14,56’sı “güvensiz” olarak sınıflandırıldı. Bunlar arasında cinsel içerikli, şiddet içeren, rahatsız edici, nefret dolu veya politik içerikli görseller bulunuyordu.
Qu, AI görüntü üreticilerini bu tür görselleri baştan üretmemek üzere programlamanın, zararlı görselleri önlemenin bir yolu olduğunu söylüyor. Bunun yanı sıra, arama işlevinden güvensiz kelimeleri engellemek ve dolaşımdaki zararlı görselleri sınıflandırmak ve çevrimiçi olarak silmek gerektiğini vurguluyor.
Yapay Zeka ve Güvenlik Dengesi
Bu önlemlerle birlikte, içerik özgürlüğü ve güvenliği arasında doğru bir denge bulmak gerekiyor. Qu, “Bu tür görsellerin ana akım platformlarda geniş çapta dolaşımını engellemek söz konusu olduğunda, sıkı düzenlemelerin mantıklı olduğunu düşünüyorum,” diyor.
AI metin-görüntü yazılımları, sanatçıların eserlerini çalmak, tehlikeli cinsiyet ve ırk stereotiplerini güçlendirmek gibi bir dizi sorunla eleştiriliyor. Bu ay İngiltere’de gerçekleşen AI Güvenlik Zirvesi gibi girişimler, teknoloji için güvenlik önlemleri oluşturmayı amaçlıyor, ancak eleştirmenler büyük teknoloji şirketlerinin müzakereler üzerinde fazla etkisi olduğunu iddia ediyor.
AI Trendleri, yapay zeka ve güvenlik konularındaki en son gelişmeleri size sunmaya devam ediyor.
Diğer Trendler!
> Sıradaki Trend!







