DOLAR 32,6438 0.21%
EURO 35,3724 0.11%
ALTIN 2.479,480,50
BITCOIN 1773568-7.5096%
İstanbul
25°

AZ BULUTLU

SABAHA KALAN SÜRE

Yapay zeka sistemleri, makineli tüfeklerle çevrili askeri üslerde mi korunacak?
22 okunma

Yapay zeka sistemleri, makineli tüfeklerle çevrili askeri üslerde mi korunacak?

ABONE OL
30 Mayıs 2024 13:27
Yapay zeka sistemleri, makineli tüfeklerle çevrili askeri üslerde mi korunacak?
0

BEĞENDİM

ABONE OL

Google’ın eski icra kurulu lideri Eric Schmidt, en güçlü yapay zeka sistemlerinin yakın gelecekte ABD ve Çin’de makineli tüfeklerle çevrili askeri üslerde yer alacağını düşünüyor.

Arama motorunu 2001’den 2011’e kadar yöneten eski Google işvereni, yapay zeka sistemlerinin önümüzdeki birkaç yıl içinde çok süratli bir halde bilgi edineceğini ve sonunda birlikte çalışmaya başlayacaklarını lisana getirdi. Bloomberg Milyarderler Endeksi tarafından net serveti 33,4 milyar dolar olarak bedellendirilen Schmidt, Amazon dayanaklı yapay zeka teşebbüsü Anthropic‘in de yatırımcılarından biri.

Önümüzdeki birkaç yıl içinde yapay zeka bilgisinin yaygınlaşmasının düzenleyiciler için zorluklar yaratacağını söyleyen Schmidt, “Burada bilim kurgu tarafından ortaya atılan sorulara giriyoruz” dedi. Ayrıyeten yapay zeka casuslarını yeni bir şeyler öğrenebilen büyük lisan modelleri olarak nitelendirdi. Schmidt’e nazaran bu casuslar hakikaten güçlü olacak ve bunlardan milyonlarca olacak.

Schmidt, “İşte bu noktada modellerin ne yaptığını anlayamayacağız. Ne yapmalıyız? Fişi mi çekelim?” tabirlerini kullandı. 69 yaşındaki eski yönetici, “Ajanlar, biz insanların anlamadığı hallerde bağlantı kurmaya ve bir şeyler yapmaya başladığında nitekim bir sorun olacak. Bana nazaran hudut bu” diye ekledi.

Schmidt, teknoloji şirketlerinin yeni teknolojinin düzenlenmesi konusunda Batılı hükümetlerle birlikte çalıştığını da belirtti. Yapay zeka ile uğraşan Batılı şirketlerin âlâ yönetildiğini ve davalara müdahil olduklarını, böylelikle riski en aza indirdiklerini söyledi.

Ancak Schmidt, dünyada araçları insanlara ziyan vermek için kullanacak berbat beşerler olduğu konusunda uyardı. Tüm teknolojiler iki taraflı kullanılabilir diyen eski yönetici, tüm bu icatların berbata kullanılabileceğini ve yaratıcıların bu mevzuda şeffaf olmaları gerektiğini söyledi. Çünkü Schmidt’e nazaran, yapay zeka ve deepfake’ler aracılığıyla yanlış bilgi yayma sorunu “çözülemez” bir sorun.

Geçtiğimiz yıl OpenAI, Google DeepMind, Anthropic ve öbür laboratuvarlardan bir grup teknoloji lideri, gelecekteki yapay zeka sistemlerinin insanlığa salgın hastalıklardan ve nükleer silahlardan daha ölümcül bir tehdit oluşturabileceği konusunda ikazda bulundu. Kar gayesi gütmeyen Center for AI Safety tarafından yapılan açıklamada, “Yapay zeka kaynaklı yok olma riskinin azaltılması, salgın hastalıklar ve nükleer savaş üzere öteki toplumsal ölçekli risklerle birlikte global bir öncelik olmalı” denildi.

En az 10 karakter gerekli


HIZLI YORUM YAP