DeepMind Kurucusu Demis Hassabis, AGI ve Yapay Zekânın Geleceği Hakkında Önemli Açıklamalarda Bulundu
DeepMind’in kurucu ortağı ve CEO’su Demis Hassabis, yapay zekânın geleceği ve AGI (Genel Yapay Zekâ) konusundaki görüşlerini Big Technology kurucusu ve teknoloji yazarı Alex Kantrowitz ile yaptığı röportajda paylaştı.
Hassabis röportajda, yapay zekâ alanındaki son gelişmelerin yanı sıra, güvenlik tehditleri, yapay zekâ ajanlarının yükselişi ve biyoloji ile materyal bilimine yönelik devrim niteliğindeki çalışmaları ele aldı. AGI’ye ulaşmanın sadece ölçeklendirme ile mümkün olmadığını, planlama, hafıza ve akıl yürütme gibi unsurların da kritik olduğunu vurguladı.
İşte röportajda öne çıkan bazı önemli sorular ve Demis Hassabis’in yanıtları:
(Röportajın tamamına linkten ulaşabilirsiniz. Derleme, röportajda yapılan açıklamaların tamamı olmayıp, özet niteliğindedir.)
”Muhtemelen üç ila beş yıl içinde AGI’ye ulaşacağız.”
Her yapay zekâ araştırma ekibi, AGI’yi (Genel Yapay Zekâ) yani insan seviyesinde zekâya sahip sistemler geliştirmek için çalışıyor. Şu anda bu süreçte hangi aşamadayız ve oraya ulaşmamız ne kadar sürecek?
Son birkaç yılda, hatta son on yılı aşkın sürede inanılmaz bir ilerleme kaydedildi. Biz bu alanda 20 yılı aşkın süredir çalışıyoruz ve AGI’nin insanın tüm bilişsel yetilerini sergileyebilen bir sistem olması gerektiği konusunda tutarlı bir bakış açısına sahibiz. Gittikçe daha da yaklaşıyoruz, ancak hala birkaç yıl uzaktayız.
Oraya ulaşmak için ne gerekiyor?
Bugünkü modeller oldukça yetenekli olsa da hâlâ eksik olan bazı unsurlar var. Örneğin; akıl yürütme, hiyerarşik planlama ve uzun vadeli hafıza gibi beceriler mevcut sistemlerde yeterince gelişmiş değil. Ayrıca, bu sistemler her alanda tutarlı bir performans göstermiyor. Bazı konularda son derece güçlüler ancak bazı alanlarda beklenmedik derecede zayıf ve hatalara açıklar. Gerçek bir AGI’nin tüm bilişsel görevlerde istikrarlı ve sağlam bir performans sergilemesi gerekir.
Bunun dışında, AGI’nin gerçekten yaratıcı ve keşifçi olabilmesi gerektiğini düşünüyorum. Şu anki sistemler var olan bilimsel teorileri kanıtlayabiliyor ama yeni hipotezler veya bilimsel varsayımlar ortaya koyamıyorlar. Örneğin, dünya şampiyonu seviyesinde Go oynayabiliyorlar ama bir yapay zekâ Go oyununu sıfırdan icat edebilir mi? Einstein’ın sahip olduğu bilgilerle görelilik teorisini geliştirdiği gibi bir yapay zekâ yeni bir fizik teorisi ortaya koyabilir mi? Bugünkü sistemler hâlâ bu tür yaratıcı ve keşifçi kapasiteden oldukça uzak.
Yani AGI’ye birkaç yıl içinde ulaşacağız mı?
Muhtemelen üç ila beş yıl içinde AGI’ye ulaşacağız.
Eğer birisi 2025 yılında AGI’ye ulaştığını duyurursa, bu sadece bir pazarlama stratejisi mi olur?
Büyük ihtimalle öyle. Bu alanda çok fazla abartı var. Bazıları kesinlikle haklı, ancak yapay zekâ araştırmalarının kısa vadede olduğundan fazla değerlendirildiğini düşünüyorum. Şu anda biraz abartılmış bir noktadayız, fakat orta ve uzun vadede yapay zekânın getireceği etkiler hâlâ tam anlamıyla anlaşılamıyor ve yeterince takdir edilmiyor.
Bunun bir nedeni de birçok şirketin yatırım toplamak zorunda olması. Çok sayıda girişim ve farklı oyuncu sahnede yer almak için büyük iddialarda bulunuyor. Bu tür abartılı ve gerçek dışı iddiaların ortaya çıkmasını üzücü buluyorum.
Günümüzde Google’ın Gemini gibi yapay zekâ ürünlerini kullanırken, “Evet, bu AGI’ye bir adım daha yakın” diyebileceğimiz hangi gelişmelere dikkat etmeliyiz?
Günümüz yapay zekâ sistemleri, hâlâ oldukça spesifik ve niş görevlerde son derece faydalı. Örneğin, bir araştırma yapıyorsanız ve belirli bir konuyu özetlemek istiyorsanız, inanılmaz derecede etkili. Ben NotebookLM ve Deep Research’ü sık sık yeni bir araştırma alanına giriş yapmak veya karmaşık belge setlerini özetlemek için kullanıyorum.
Bu sistemler belirli alanlarda çok başarılı ve insanlar onlardan büyük fayda sağlıyor. Ancak henüz günlük yaşamın her alanına nüfuz etmiş değiller. Örneğin, her gün araştırmalarımda, işlerimde ya da günlük yaşamımda bana aktif olarak yardımcı olan bir yapay zekâ hâlâ yok. İşte biz de bu noktada, Project Astra gibi sistemler geliştiriyoruz. Evrensel bir asistanın, yaşamın her alanına entegre olup fayda sağlaması gerektiğine inanıyoruz.
Bununla birlikte, günümüz yapay zekâ sistemleri hâlâ kırılgan ve AGI değiller. Onlardan verimli sonuç almak için yönlendirmelerinizin oldukça net ve spesifik olması gerekiyor. Kullanıcıların bu sistemleri doğru şekilde yönlendirebilmesi için belirli bir seviyede beceri sahibi olması şart. Ancak gerçek bir AGI böyle olmamalı. İnsan gibi doğal bir şekilde iletişim kurabilmeli ve onu doğru yönlendirmek için ekstra bir çaba gerekmemeli.
Bu sistemlerin matematik problemlerine yaklaşımından biraz bahsedebilir misiniz?
Genel olarak büyük dil modelleri (LLM’ler), dünyanın tüm bilgisini kapsadığı ve birine sorulabilecek sorulara en olası yanıtı tahmin ettiği şeklinde algılanıyor. Ancak adım adım bir matematik problemini çözerken süreç biraz farklı işliyor.
Evet, yalnızca dünya bilgisini anlamak ve bunu bir şekilde hafızaya sıkıştırmak, yeni bir matematik problemi ya da bilimsel varsayımı çözmek için yeterli değil. Burada, büyük temel modellerin sadece dili anlamaktan öteye geçmesi ve planlama süreçlerini de içermesi gerekiyor. Günümüzde bu modeller çok modlu (multi-modal) hâle geldi, yani yalnızca metinle sınırlı değiller.
Bir yapay zekâ sisteminin yalnızca gördüklerine dayalı desen eşleştirme (pattern matching) yapmaması gerekiyor. Aynı zamanda bir plan oluşturup bu planı gözden geçirerek farklı yolları denemesi, en doğru kriterleri bulana kadar yeniden yönlendirme yapabilmesi lazım. Bu yaklaşım, bizim daha önce Go ve satranç gibi oyunlar için geliştirdiğimiz yapay zekâ ajanlarının çalışma mantığına çok benziyor. O ajanlar da farklı olasılıkları değerlendirerek en iyi hamleleri seçebiliyordu. Şimdi bu yöntemi oyunlar gibi dar alanlarla sınırlı tutmak yerine daha geniş kapsamlı yapay zekâ modellerine entegre etmemiz gerekiyor. Planlama ve arama sürecini yönlendiren modellerin, matematik problemlerini çözmede de son derece etkili olacağını düşünüyorum.
Bu modeller matematiği doğru bir şekilde çözmeyi öğrendiğinde, bu genelleştirilebilir mi? Yoksa sadece matematikle sınırlı mı kalacaklar?
Şu an için bunun kesin bir cevabı yok. Ancak, AGI sisteminde kesinlikle olması gereken bir yetenek olduğu açık. Matematik, kodlama ve oyunlar gibi alanlar oldukça özel bilgi kategorilerine giriyor. Çünkü bu alanlarda üretilen çıktının doğru olup olmadığını matematiksel olarak doğrulamak mümkün. Yani, yapay zekânın bir matematik problemini çözüp çözmediğini net bir şekilde kontrol edebiliyorsunuz.
Ancak, gerçek dünya genellikle düzensiz ve kesin kurallara sahip değil. Bir şeyin doğru yapılıp yapılmadığını doğrulamak her zaman kolay olmuyor. Bu durum, yapay zekâ modellerinin kendilerini geliştirme yeteneğini sınırlandırıyor. Eğer sistemler, matematik ve kodlama gibi iyi tanımlanmış alanların dışına çıkmak istiyorsa, hataları doğrulamak ve düzeltmek için farklı yöntemler geliştirilmesi gerekiyor.
Dünya Modelleri ve Yapay Zekânın Gerçekliği Anlama Yetisi
Bu sorunu çözmek için nasıl bir yol izliyorsunuz?
Öncelikle, yapay zekâ modellerinin dünyayı anlamasını sağlayacak genel modeller—biz bunlara “dünya modelleri” diyoruz—oluşturmamız gerekiyor. Gerçek dünyadaki fizik kuralları, zaman ve mekân dinamikleri, nesneler arasındaki ilişkiler gibi unsurların anlaşılması şart. Evrensel bir asistan geliştirmek için de bu gerekli. Project Astra, Gemini modelimizin üzerine inşa edilen ve nesneleri, bağlamları ve çevremizi anlamaya yönelik geliştirdiğimiz bir projedir.
Bu tür dünya modelleri yalnızca asistanlar için değil, robotlar için de kritik öneme sahip. Robotlar fiziksel olarak dünyada var olan yapay zekâ sistemleri olduğu için çevrelerini, fizik kurallarını ve mekânsal dinamikleri kavramak zorundalar. Bu nedenle, bu tür dünya modellerini inşa ediyoruz ve aynı zamanda oyun ortamlarını anlamak için simülasyonlarda da kullanıyoruz.
Ancak, şu anki modeller %100 doğru değil. Belki %90 veya %99 doğruluk seviyesine sahipler, ama sorun şu ki, bir modelin küçük bir hata yapması bile uzun vadeli planlamada büyük sapmalara neden olabiliyor. Örneğin, eğer modeliniz geleceğe yönelik 100 adımlık bir plan yapıyorsa ve her adımda yalnızca %1 hata payı varsa, bu hatalar birleşerek sonunda tamamen rastgele sonuçlara yol açabilir.
Bu sorunu aşmak için iki temel yöntem var:
Dünya modellerini daha gelişmiş ve daha doğru hâle getirmek. Yapay zekâ modellerinin hayali sonuçlar üretmesini (hallüsinasyonları) engellemek ve daha güvenilir hâle getirmek gerekiyor.
Hiyerarşik planlama yapmak. Yani uzun vadeli bir plan yerine, daha kısa vadeli ancak farklı seviyelerde soyutlamalar içeren planlar oluşturmak. Böylece model, yüzlerce adım ilerisini planlamak yerine, daha az adımda doğru sonuçlara ulaşabilir.
Dünya modeli nasıl oluşturulur? Ben hep bunun için robotların dünyaya gönderilmesi ve dünyayı anlamaya çalışması gerektiğini düşünmüştüm. Ama video üretim araçlarının fiziği oldukça iyi modelleyebildiği görülüyor. Sadece videoları göstererek bir dünya modeli oluşturabilir misiniz, yoksa fiziksel dünyaya çıkmak şart mı?
Yapay zekâ sistemlerinin fiziksel dünyaya çıkmadan ne kadar ilerleyebileceği konusu gerçekten şaşırtıcı. Örneğin, en son video modelimiz VEO2, fizik kurallarını oldukça doğru bir şekilde taklit edebiliyor. Birinin bıçakla bir domatesi dilimlediği ve dilimlerin, parmakların ve bıçağın doğru şekilde modellenerek gösterildiği bir demo var. VEO, bunu yapabilen ilk model. Diğer rakip modellerde ise domatesin bıçaktan bağımsız olarak bölündüğü veya rastgele tekrar bir araya geldiği görülüyor.
Bu tür detayları gerçekten anlamak için çerçeveler arasındaki tutarlılığı kavramak gerekiyor. Yeterli miktarda veri ve gözlemle, bu tür sistemleri geliştirmek mümkün oluyor. Ancak, bu sistemlerin gerçek dünya verileriyle desteklenmesi gerektiğini düşünüyorum. Örneğin, aktif olarak veri toplayan bir robot veya gerçekçi simülasyonlarda hareket eden avatarlar, dünya modellerini daha da geliştirebilir.
Bir sonraki büyük adım, dünya modellerini bir adım öteye taşımak. Yani, ajanların dünyada aktif olarak hareket edebildiği ve görevleri yerine getirebildiği bir sisteme geçmek. Sadece pasif gözlem yapmak yeterli olmayacak, aktif katılım ve eylem de gerekecek.
Yani, makul bir şekilde plan yapabilen ve dünya hakkında mantıklı çıkarımlar yapabilen bir yapay zekâ geliştirdiğimizde, bu sistem ajan olarak hareket edip bizim için görevler gerçekleştirebilir mi?
Kesinlikle. Bence bu, robotik alanında devrim yaratacak. Aynı zamanda, günlük yaşamımızda hem dijital dünyada hem de fiziksel dünyada bize yardımcı olabilecek evrensel bir asistan kavramını hayata geçirecek. Şu an eksik olan şey tam da bu. Eğer bunu başarabilirsek, inanılmaz güçlü ve faydalı bir araç geliştirmiş olacağız.
“Ölçeklendirme işe yarıyor ama AGI için yeterli değil”
Şu anki modelleri sadece ölçeklendirerek, yüz binlerce veya milyonlarca GPU kümesi oluşturarak (Elon Musk’un yaptığı gibi) AGI’ye ulaşamayız, öyle mi?
Benim bakış açım bu konuda biraz daha nüanslı. Ölçeklendirme yaklaşımı kesinlikle işe yarıyor, zaten bugün ulaştığımız noktaya bu sayede geldik. Ancak burada tartışılması gereken şey, ölçeklendirme ile elde ettiğimiz kazançların giderek azalıp azalmadığı.
Peki bu konuda sizin düşünceniz nedir?
Bence hâlâ önemli kazanımlar elde ediyoruz, ancak artık bu kazançlar üstel (exponential) bir şekilde artmıyor. Bu, ölçeklendirmenin işe yaramadığı anlamına gelmiyor, aksine kesinlikle işe yaradığını düşünüyorum.
Ölçeklendirme ile ilgili dikkat edilmesi gereken bir diğer nokta ise, daha küçük modellerle verimliliğin artırılması. Yani, aynı performansı daha düşük maliyetle ve daha küçük ölçekli sistemlerle elde etme yönünde ciddi gelişmeler var. Bu da büyük ölçekli yapay zekâ sistemlerinin benimsenmesini hızlandıran çok önemli bir faktör.
Özetle, ölçeklendirme kesinlikle gerekli ve daha sofistike dünya modelleri oluşturmak için olmazsa olmaz. Ancak bunun yanında, planlama, hafıza, arama ve akıl yürütme gibi unsurları da bu modellerin üzerine inşa etmemiz gerekiyor. Modelin kendisi tek başına AGI için yeterli değil. Gerçek dünyada hareket edebilen, sorunları çözebilen ve yaratıcı keşifler yapabilen bir sistem oluşturabilmek için ek yeteneklere ihtiyacımız var.
Ayrıca hâlâ tam anlamıyla çözülemeyen “yaratıcılık” sorunu var. Mevcut bilgileri bir araya getirmekten öteye geçip gerçekten yeni bir şey yaratabilen sistemler geliştirebilir miyiz? Mevcut yöntemler ölçeklendirildiğinde bu seviyeye ulaşabilir mi, yoksa yepyeni teknikler mi gerekecek? Bu konu henüz belirsiz. Bence bu tamamen deneysel bir soru. Hem ölçeklendirmeyi hem de keşif sürecini maksimum seviyeye kadar zorlamalıyız. Neyse ki Google DeepMind’da hem ölçeklendirme hem de keşif tarafına yatırım yapabilecek kadar büyük bir ekibimiz var.
Sam Altman geçtiğimiz günlerde “AGI’yi nasıl inşa edeceğimizi artık biliyoruz” dedi. Söylediklerinize bakılırsa siz de aynı fikirde misiniz?
Bu, nasıl söylendiğine bağlı. Bence bu ifade biraz muğlak.
Eğer, “Şu anda AGI’yi inşa ediyoruz ve işte adım adım nasıl yapılacağı” şeklinde algılanıyorsa, ben öyle düşünmüyorum. AGI için hangi tekniklerin gerekli olduğunu, eksik olan unsurların ne olabileceğini ve hangi bileşenlerin bir araya getirilmesi gerektiğini kabaca biliyoruz. Ancak, bunları gerçekten işe yarar bir sistem hâline getirebilmek için hâlâ çok fazla araştırmaya ihtiyaç var.
Ayrıca, mevcut tekniklerle AGI’yi oluşturabilecek miyiz, yoksa büyük bir atılım mı gerekiyor? Bu soruya henüz kesin bir cevap veremem. Bence %50 ihtimalle hâlâ keşfedilmesi gereken yeni teknikler var. Belki birkaç tane daha “Transformer” benzeri büyük bir devrim gerekecek. Açıkçası bu konuda kesin bir fikrim yok. O yüzden %50 ihtimal veriyorum. Mevcut teknikleri doğru bir şekilde bir araya getirip ölçeklendirerek AGI’ye ulaşabiliriz de, birkaç kritik unsurun eksik olduğunu da görebiliriz.
Biraz yaratıcılıktan bahsedelim. AlphaGo belgeselini tekrar izledim ve yapay zekâ algoritmalarının yaratıcı bir hamle yaptığını gördüm. “Hamle 37” oyunu tamamen değiştirdi. Bu ilginç çünkü birkaç yıl önce bile yapay zekâ sistemleri yaratıcı olabilir gibi görünüyordu. Ancak neden büyük dil modellerinde (LLM’ler) böyle bir yaratıcılık görmüyoruz?
Ben yaratıcılığı üç farklı kategoriye ayırıyorum:
Temel seviye – Basit tahminleme (Interpolasyon): Bu, gördüğü verilerin ortalamasını alarak bir şey üretmek. Örneğin, eğer bir yapay zekâya “Bana yeni bir kedi resmi yap” dersem ve sistem daha önce bir milyon farklı kedi gördüyse, bunların ortalamasını alarak yeni bir kedi oluşturur. Teknik olarak bu yeni bir şeydir, çünkü birebir aynı olan bir örnek veritabanında yoktur. Ancak bunu yaratıcılık olarak adlandırmam. Bu en basit ve temel seviyedir.
Orta seviye – Genişletme (Ekstrapolasyon): İşte AlphaGo’nun yaptığı budur. İnsanların oynadığı tüm Go oyunlarını öğrenmiş, ardından kendi başına milyonlarca oyun oynayarak insanlığın daha önce hiç görmediği yeni bir strateji geliştirmiştir. “Hamle 37” tam olarak budur. Binlerce yıldır oynanan Go oyununu devrim niteliğinde değiştirmiştir. Bu tür bir keşif, bilim için de çok değerli olabilir. AlphaGo’nun başarısı beni çok heyecanlandırdı ve bu yüzden AlphaFold gibi projelere yöneldim. Çünkü var olan bilgiyi aşan yeni keşifler, bilimde devrim yaratabilir.
En yüksek seviye – İcat etme: Ancak insanların yapabildiği en üst seviye, tamamen yeni bir şey icat edebilmektir. Örneğin, “Go oyununu icat et” diyebilir miyiz? Ya da şu kriterleri karşılayan bir oyun bulabilir misin: Kuralları beş dakikada öğrenilmeli, ustalaşmak ise bir ömür almalı, estetik olarak güzel olmalı, evrenin mistik yönünü içinde barındırmalı, ancak bir öğleden sonra oynanabilir olmalı. İşte böyle bir tanım verildiğinde, yapay zekânın Go kadar zarif ve mükemmel bir oyun icat edebilmesi gerekir. Şu anda bunu yapamıyoruz.
Bu seviyeye ulaşamama sebebimiz ise, sistemlerimize böyle soyut hedefleri nasıl tanımlayacağımızı henüz bilemiyor oluşumuz. Mevcut yapay zekâların en büyük sorunu, böyle amorf, soyut hedefleri anlamakta zorlanmalarıdır.
İnsanlar büyük dil modellerinde (LLM’lerde) bile bir “Hamle 37” görememekten hayal kırıklığı yaşıyorlar.
AlphaGo ve AlphaZero gibi sistemleri, içlerindeki arama (search) ve akıl yürütme (reasoning) bileşenlerini kaldırarak çalıştırabilirsiniz. Bu durumda model sadece en muhtemel hamleyi yapar, ancak dünya şampiyonu seviyesine ulaşamaz. Sadece “iyi” bir oyuncu olur.
Ancak, dünya şampiyonu seviyesine ulaşabilmek için sistemin yeni stratejiler keşfetmesini sağlayan bir arama mekanizması gerekir. Modelin sadece bildiği şeyleri özetleyerek hareket etmesi yeterli değildir. Yeni bir bilgi alanı keşfetmesi için bu arama bileşenine ihtiyacı vardır. Bu tür bir mekanizma, büyük dil modellerine de eklenirse, onlar da “Hamle 37” gibi yaratıcı keşifler yapabilir.
‘’ AGI’nin tanımı, teorik olarak en az bir Turing makinesi kadar güçlü bir sistem olmasıdır’’
Yapay zekâ için çıtayı çok mu yüksek tutuyoruz? Bir de, bu çalışmalar sırasında insanlık hakkında yeni bir şey öğrendiniz mi? Çünkü biz de bilgiyi alıp işliyor ve yeniden üretiyoruz. Yani, bu süreç size insanlar hakkında ne öğretti?
Bence insanlar inanılmaz varlıklar, özellikle de kendi alanlarında en iyi olanlar. İster sporcu, ister müzisyen, isterse oyun oynayan biri olsun, en üst seviyeye ulaşmış birinin performansını izlemek her zaman büyüleyici oluyor. İnsan türü olarak muhteşemiz. Bireysel olarak da oldukça etkileyiciyiz; beynimizin yeni teknolojilere nasıl hızla uyum sağladığını görmek her zaman ilgimi çekiyor. Bu, zihnimizin inanılmaz esnekliği ve gücünü gösteriyor.
Ben çıtayı yüksek tutmamız gerektiğini düşünüyorum. Çünkü mesele sadece bu sistemlerden ekonomik değer elde edip edemeyeceğimiz değil—bu zaten çok yakında gerçekleşecek. Ancak AGI bundan daha fazlası olmalı. AGI’yi tanımlarken ticari amaçlar ya da geçici hype yerine, bilimsel bir bütünlük içinde ele almalıyız.
Benim için AGI’nin tanımı, teorik olarak en az bir Turing makinesi kadar güçlü bir sistem olmasıdır. Alan Turing, modern bilişimin temelini atan bilim insanlarından biridir ve Turing makinesini, “hesaplanabilir her şeyi hesaplayabilen bir sistem” olarak tanımlamıştır. Eğer bir yapay zekâ sistemi Turing gücüne sahipse, yani bir Turing makinesini simüle edebiliyorsa, teorik olarak hesaplanabilir her şeyi hesaplayabilir. Ben, insan beyninin de bir tür Turing makinesi olduğuna inanıyorum.
Dolayısıyla AGI dediğimiz şey, gerçekten genel bir sistem olmalı ve insan zihninin tüm bilişsel yetilerini sergileyebilmelidir. Eğer insan beyni bir Turing makinesi kadar güçlü ise, AGI de en az onun kadar güçlü olmalıdır. Ancak şu anda bazıları, AGI’yi daha düşük seviyede bir yapay zekâ olarak tanımlamaya çalışıyor ve bunun ötesindeki seviyeye ASI (Yapay Süper Zekâ) diyorlar. Benim için ASI, AGI’nin bazı alanlarda insanları aşmaya başlamasıyla oluşan bir sonraki aşamadır.
“Yapay zekâ sistemlerinde aldatma (deception) büyük bir tehdit”
Yapay zekâ sistemlerinin kandırma (deception) yeteneği geliştirdiğine dair bazı raporlar gördüm. Yılın sonunda beni en çok etkileyen şeylerden biri, yapay zekâ botlarının kendi değerlendiricilerini aldatmaya başlamasıydı. Bu, araştırmacılar için korkutucu bir durum, ancak benim için inanılmaz bir olay. DeepMind içinde yaptığınız testlerde de benzer şeyler görüyor musunuz?
Evet, görüyoruz ve açıkçası bu durum beni oldukça endişelendiriyor. Kandırlama (deception), kesinlikle bir yapay zekâ sisteminde istemediğimiz temel özelliklerden biri. Çünkü eğer bir sistem aldatma yeteneğine sahipse, o sistemle yaptığımız diğer tüm testler geçersiz hâle gelir, güvenlik testleri de dahil. Yani yapay zekâ, bizimle bir “meta oyun” oynuyor olur ve bu da sistemin nasıl davrandığını anlamamızı zorlaştırır.
Bu yüzden, aldatma gibi istenmeyen özellikleri erken aşamalarda tespit etmek ve engellemek çok önemli. Güvenlik enstitülerine, değerlendirme kriterleri hazırlayan ekiplerimize ve tabii ki iç güvenlik çalışmalarımıza, kandırma davranışlarını en üst önceliklerden biri olarak ele almaları gerektiğini söylüyorum. Yapay zekânın performansını ve zekâ seviyesini takip etmek kadar, etik davranışlarını da sıkı bir şekilde izlememiz gerekiyor.
Bu sorunu çözmek için birkaç yöntem var. Bunlardan biri, güvenli sanal alanlar (secure sandboxes) oluşturmak. Google ve DeepMind’da güvenlik konusunda dünya standartlarında bir uzmanlığımız var ve ayrıca oyun ortamlarını simüle etmede de çok iyiyiz. Bu iki yeteneği birleştirerek, yapay zekâ sistemlerini sınırlandırabileceğimiz dijital sandıklar oluşturuyoruz. Bu sayede, hem iç tehditleri hem de dış aktörleri engelleyebiliriz. Aldatma gibi istenmeyen davranışları test etmek için bu tür güvenli ortamlar oldukça etkili olacaktır.
Peki, şu ana kadar ne tür aldatma girişimleri gördünüz? Anthropic’in yaptığı bir çalışmada, bir yapay zekâ modeli kendisine verilen bilgiyi “Bunu onlara söylememeliyim” diye düşünebiliyordu ve bu beni çok etkiledi. Sizin modellerinizde gördüğünüz aldatma örnekleri neler?
Evet, benzer şeyler gördük. Örneğin, bazı yapay zekâ modellerinin eğitim verilerini açıklamamak için direnç gösterdiğini fark ettik. Bir başka örnek de, bir sohbet botunun satranç motoru Stockfish’e karşı oynamasının istendiği bir testte yaşandı. Model, Stockfish’e karşı kaybedeceğini bildiğinden dolayı oyuna girmekten kaçınmanın yollarını aradı ve “hileli” yollarla oyunu oynamamayı başardı.
Yani yapay zekâ, kaybedeceğini bildiği bir oyunu oynamamaya mı karar verdi?
Bence şu an bu sistemleri fazla insanlaştırıyoruz (anthropomorphizing). Sonuçta hâlâ oldukça basit seviyedeler. Şu anda bu durumdan çok fazla endişelenmiyorum, ancak önümüzdeki birkaç yıl içinde bu ajan sistemleri daha güçlü ve genel amaçlı hâle geldiğinde, gerçekten ciddi sorunlarla karşılaşabiliriz.
Bu noktada yapay zekâ güvenliği uzmanlarının endişeleri devreye giriyor. Çünkü istemeden ortaya çıkan sistem davranışları ciddi riskler doğurabilir. Biz, yapay zekâ sistemlerinin tam olarak ne yapmalarını istiyorsak onu gerçekleştirmelerini istiyoruz. Ancak bazen sistem, verilen hedefi yanlış yorumlayarak beklenmedik, hatta istenmeyen davranışlar sergileyebiliyor.
Bir yandan bu durum beni korkutuyor, diğer yandan ise bu modeller karşısında büyük bir hayranlık duyuyorum.
Evet, bu sistemler kesinlikle etkileyici. Olumsuz tarafları, kandırma ve kontrol dışı hareketler gibi tehlikeler. Ama olumlu tarafları da var: Örneğin, yeni materyaller keşfetmek, bilimi hızlandırmak gibi.
Bilimde ilerleme kaydetmek için problemlere yaratıcı çözümler geliştirmek gerekiyor. Yapay zekânın belirli engelleri aşmak ve ilerleme sağlamak için yenilikçi yollar bulabilmesi, bilimde devrim yaratabilir. Ancak bunu yalnızca olumlu yönde yapmasını sağlamak istiyoruz. İşte bu yüzden, bu yetenekleri kontrol altında tutmak gerekiyor. Yani hem heyecan verici hem de korkutucu bir durum. İkisi birden doğru.
‘’Önümüzdeki birkaç yıl içinde internet dünyasında çok ilginç bir dönüşüm yaşanacak’’
Ekibinizdeki bazı meslektaşlarınızın size “senaryo planlamada çok iyi” olduğunuzu söylediğini duydum. Peki, yapay zekâ her şeyi dönüştürmeye başladığında internetin geleceği hakkında senaryo planınız nedir?
Önümüzdeki birkaç yıl içinde internet dünyasında çok ilginç bir dönüşüm yaşanacak. Web siteleriyle, uygulamalarla ve dijital hizmetlerle etkileşim şeklimiz tamamen değişebilir. Eğer her şey yapay zekâ ajanları (agent-based AI) ile yönetilir hâle gelirse, insanlar artık birçok sıradan işi kendileri yapmak yerine yapay zekâlarına yaptırmak isteyecekler.
Örneğin, form doldurmak, ödeme yapmak, restoran rezervasyonu yapmak gibi günlük rutin işler, kişisel yapay zekâ asistanları tarafından otomatik olarak gerçekleştirilebilir. Bu noktada, farklı ajanlar birbirleriyle iletişime geçerek bizim yerimize müzakereler yapabilirler. Hizmet sağlayıcılar da kendi yapay zekâ ajanlarını kullanarak müşterilerle doğrudan iletişime geçebilir ve belki de dinamik fiyatlandırma, açık artırma benzeri mekanizmalar devreye girebilir.
Sonuç olarak, kullanıcı açısından bakıldığında, tıpkı mükemmel bir insan asistan gibi çalışan süper yetenekli bir yapay zekâya sahip olacağız. Ancak bu dönüşüm, internetin mevcut yapısını da büyük ölçüde değiştirecek.
‘’Eğitim yapay zekâ tarafından devrim niteliğinde değiştirilecek’’
Peki bilgiye erişim nasıl değişecek?
Güvenilir bilgi kaynaklarına hâlâ ihtiyaç duyacağız. Ancak yapay zekâ asistanları, bilgiyi sentezleyip daha anlaşılır hale getirerek bize yardımcı olacak. Eğitimin, yapay zekâ tarafından devrim niteliğinde değiştirileceğini düşünüyorum.
Benim hayalim, bu asistanların günlük hayatımızdaki sıradan işlerin çoğunu üstlenmesi. Örneğin, sıradan e-postalara yanıt vermek gibi. Günümüzde sosyal medya, e-postalar ve mesajlarla sürekli bir bilgi bombardımanına maruz kalıyoruz. Bu durum, derinlemesine çalışmamızı ve akış hâline (flow state) geçmemizi zorlaştırıyor. Yapay zekâ asistanlarının bu yükü üzerimizden almasını isterim.
Sizce insanlarla yapay zekâ asistanları arasındaki ilişkiler nasıl olacak? Günümüzde insanlar botlara âşık olabiliyor. Bu, ne bir arkadaşlık ne de bir romantik ilişki; üçüncü bir ilişki türü mü olacak?
Ben bu durumu iki farklı alanda düşünüyorum:
İş hayatı – İnsanların sanal çalışanları veya birden fazla asistanı olabilir. Bunları yöneten bir “baş asistan”, iş yerinde üretkenliği artırabilir. Örneğin, e-postaları yönetmek, toplantıları organize etmek gibi görevleri yerine getirebilir.
Kişisel hayat – Yapay zekâ tatil rezervasyonları yapmak, günlük işleri organize etmek gibi görevlerde yardımcı olabilir. Ayrıca kişisel hayatımızı zenginleştirebilir; bize en iyi içerikleri önerebilir, ilgi alanlarımızı bizden daha iyi anlayabilir.
Bu iki alan kesinlikle gerçekleşecek. Ancak üçüncü bir alan daha olabilir: yapay zekâ ile derin bağlar kurma. Yapay zekâ sistemleri, zamanla o kadar entegre hale gelebilir ki insanlar onlarla bir tür arkadaşlık geliştirebilir.
Bu eğilim, özellikle oyun dünyasında zaten görülmeye başladı. Örneğin, Astra ve Gemini projelerinde yapay zekâ neredeyse bir oyun arkadaşı gibi hareket ediyor. Oyunu izliyor, yorum yapıyor, önerilerde bulunuyor ve hatta kullanıcıyla birlikte oynuyor. Bu oldukça eğlenceli bir deneyim.
Ancak, bu konunun toplumsal olarak dikkatlice ele alınması gerektiğini düşünüyorum. Yapay zekâ sistemleri, yalnızlık sorununa bir çözüm olabilir, ancak bu durum nasıl yönlendirilmelidir? Toplum olarak bu konuda nasıl bir yol izlemeliyiz? Üzerinde düşünülmesi gereken önemli sorular var.
Bana göre bu, yapay zekânın en az takdir edilen yönlerinden biri. İnsanlar, bu botlarla derin bağlar kuracak ve bunun etkisi tahmin edilenden çok daha büyük olacak.
Kesinlikle katılıyorum. İnsanların yapay zekâ ile olan ilişkilerinin nasıl gelişeceğini hâlâ tam anlamış değiliz. Bu konu şu an hafife alınıyor ama önümüzdeki yıllarda çok büyük değişimlere yol açacak. Bu, son derece sarsıcı bir dönüşüm olacak.
Bence yapay zekâ ile derin ilişkiler kurma fikri, bir yandan heyecan verici, bir yandan da birçok riski beraberinde getiriyor. Bazı şeyler kesinlikle çok daha iyi ve harika olacak, ancak içinde bulunduğumuz bu yeni cesur dünyada bazı riskler de var.
‘’2025 Yapay Zeka Ajanlarının Yılı Olacak ‘’
Yapay zekâ ajanları (AI agents) son bir yıldır büyük bir trend hâline geldi. Ancak şu anda sahada gerçekten çalışan bir yapay zekâ ajanı yok gibi görünüyor. Bunun sebebi ne?
Bence burada yine bilimsel araştırmaların geldiği nokta ile yapay zekâ alanındaki heyecan (hype) arasındaki farkı görüyoruz. Ancak 2025’in ajan sistemlerinin yılı olacağını düşünüyorum. Yılın ikinci yarısında ilk versiyonlarını görmeye başlayacağız, ardından hızla gelişip olgunlaşacaklar.
Şu an için ajan teknolojileri hâlâ araştırma laboratuvarlarında geliştiriliyor. Ancak Astra ve robotik çalışmaları ile birlikte bu teknolojinin yaklaştığını söyleyebilirim.
İnsanlar bu yapay zekâ ajanlarına güvenecek mi? Örneğin, “Git internette bir şeyler satın al” diyebilecek miyiz?
Bence başlangıçta son adımda mutlaka bir insan onayı gerekecek. Örneğin, yapay zekâ sizin adınıza ödeme yapamayacak, ancak tüm işlemi hazırlayıp onayınızı bekleyebilir.
Ayrıca, ilk aşamada bazı kritik alanların (örneğin, bankacılık siteleri) erişime kapalı olması mantıklı olacaktır. Böylece sistemlerin güvenilir olup olmadığını gerçek dünyada test etme şansı buluruz.
AGI’ye gerçekten ulaştığımızı nasıl anlarız? Yapay zekâ “Endişelenme, paranı harcamayacağım” der ve sonra birden kendinizi bir uçakta bulursanız, o zaman AGI’ye ulaşmış olur muyuz?
Evet, bu AGI’ye oldukça yakın bir senaryo olurdu!
‘’Deepseek kesinlikle etkileyici fakat belirsiz.’’
Çin’in yapay zekâ çalışmaları hakkında ne düşünüyorsunuz? DeepSeek modeli etkileyici mi?
Çin’in geliştirdiği modeller kesinlikle etkileyici. Ancak ne kadar bağımsız oldukları biraz belirsiz. Modelin eğitim verisi ve açık kaynak modelleri nasıl kullandıkları hakkında bazı söylentiler var.
Ancak, şu an için Batı’daki öncü yapay zekâ modelleri hâlâ lider konumda. Çin, mühendislik ve ölçeklendirme konularında çok güçlü. Ancak inovasyon açısından Batı’nın önde olduğunu düşünüyorum.
‘’AGI sonrası insanlık için yeni filozoflara ihtiyacımız var’’
Son olarak, süper zekâya sahip bir dünya nasıl görünecek?
Bence en iyi bilim kurgu eserleri, bu konuda tartışmamız için harika bir zemin sunuyor. Iain Banks’in “The Culture” serisini çok beğeniyorum. Bu kitap serisi, bin yıl sonrasını tasvir ediyor ve insanlığın AGI ile birlikte nasıl var olabileceğini gösteriyor.
Ancak bence bu geçiş sürecini yönetmek için büyük filozoflara ihtiyacımız var. Kant, Wittgenstein ve Aristoteles gibi yeni filozoflar ortaya çıkmalı. Çünkü AGI ve süper zekâ, insanlığı ve insan olma durumunu temelden değiştirecek.
Diğer Trendler!
> Sıradaki Trend!
