Teknoloji dünyasında çığır açan OpenAI, kısa süre önce Sora adını verdiği yapay zekâ uygulamasını tanıttı.

Bu yenilik, basit bir metin açıklaması ile oldukça karmaşık ve detaylı videolar oluşturabilme yeteneğine sahip. Piyasaya çıktığı gün o kadar çok talep gördü ki OpenAI, tanıtımın hemen ardından yeni kullanıcı hesapları oluşturamadıklarını duyurdu. Sora, film endüstrisi, eğitim ve oyun geliştirme gibi birçok alanda devrim yaratma potansiyeli taşıyor, aynı zamanda birçok sektörde köklü bir dönüşüm oluşturma riski de barındırıyor. Özellikle büyük yatırımlar yapılan film endüstrisinde, görsel efekt uzmanlarından senaristlere kadar birçok profesyonelin işsiz kalabileceği öngörülüyor. Ancak, bu yapay zekâ uygulamalarının ortaya çıkaracağı asıl sorun işsizlikten öte gerçeğin sınırlarının bulanıklaşmasıyla derinleşecek olan hakikat krizidir. 

Sora’nın etik açıdan yarattığı tehditler endişe verici boyutlarda. Uzmanlara göre, bu gibi araçlar, gerçeklik ile sanal arasındaki çizgileri bulanıklaştırıyor ve manipülasyon için yeni tehditler doğuruyor. Deepfake teknolojisinin gelişimiyle birlikte, artık herhangi birinin yüzünü, sesini taklit etmek ve sahte videolar üretmek mümkün hale gelmişti. Sora gibi uygulamalarla üretilen videolar ve bu teknolojinin geniş kitlelerce kullanımı, siyasi istikrarsızlıktan sosyal kargaşaya kadar pek çok alanda ciddi sorunlara yol açabilir. Zira üretilen sahte videolar, gerçeklik algısını kökten değiştirme tehlikesi taşıyor. Toplum, bu tür içeriklerin etkisiyle kolayca manipüle edilebilir. Ayrıca yanlış bilgilendirme kampanyaları, bireylerin ve kurumların itibarını zedeleyebilir. Gerçek ile kurgu arasındaki çizgi bu kadar inceldiğinde, hakikatin ne olduğuna dair kolektif bir şüphe oluşacaktır.

Yapay zekâ teknolojilerinin etik sınırları zorladığı bir başka örnek, Harvard Üniversitesi’nden iki öğrencinin geliştirdiği bir uygulamaydı. Meta Ray-Ban üzerinde oluşturdukları bu uygulama, kullanıcıların ilk kez gördükleri kişiler hakkında detaylı bilgi sahibi olmalarını sağlıyor. Sosyal medya profillerinden kamuya açık verilere kadar birçok kaynağı tarayan bu teknoloji sayesinde kullanıcılar, metroda karşılaştıkları kişilere isimleriyle seslenerek belki hatırlayamadıkları bir arkadaşları gibi yaklaşabiliyorlar. Bu teknoloji, kamuya açık veri kaynaklarını kullanarak çalıştığı için tamamen yasal kabul ediliyor.  Ancak siber güvenlik uzmanları, bu ve benzeri teknolojilerin kötü niyetli insanlar tarafından dolandırıcılık maksadıyla ne kadar kolay kullanılabileceği konusunda uyarıyor. 

Yapay zekanın “ağababası” olarak anılan Geoffrey Hinton, 2023 yılından beri bu teknolojilerin kontrolsüz gelişimine karşı sert uyarılarda bulunuyor. Hinton, uzun yıllar yapay sinir ağları ve derin öğrenme konularındaki araştırmalarıyla Google Brain’de çalıştıktan sonra yapay zekanın insanlık için potansiyel bir tehdit olduğunu fark ederek görevinden istifa etmişti. Şimdi ise toplumu bu konuda bilinçlendirmeyi bir sorumluluk olarak görüyor. Hinton, yapay zekanın kontrolsüz bir şekilde gelişmesinin toplumları derin bir kaosa sürükleyebileceğini ifade ediyor. Özellikle otonom yapay zekâ sistemlerinin, insan iradesinden bağımsız olarak hareket edebileceği senaryolara dikkat çekiyor. 

Teknoloji, insanoğlunun hayal gücünü aşan bir hızla ilerliyor. Ancak, bu ilerlemenin insani değerler çerçevesinde sınırlandırılması ve yönlendirilmesi konusunda aynı hızda etik ve yasal düzenlemeler yapılamıyor. Sosyal bilimlerin, teknolojinin hızına yetişmek için daha yoğun çalışması ve daha aktif bir rol üstlenmesi gerekiyor. Yeni teknolojiler, yalnızca ekonomik veya teknik açıdan değil, etik, sosyolojik ve psikolojik boyutlarıyla da analiz edilmeli. Aksi takdirde insanlık, işsizliğin ötesinde, toplumsal güvenin tamamen yitip gittiği bir kaosa sürüklenebilir. Geleceği şekillendirmek için teknolojiyi doğru anlamak ve ona insanlığın yararına olacak şekilde bir yön vermek çağımızın en acil gerekliliklerinden biridir.