DOLAR 32,6438 0.21%
EURO 35,3724 0.11%
ALTIN 2.479,480,50
BITCOIN 1773568-7.5096%
İstanbul
25°

AZ BULUTLU

SABAHA KALAN SÜRE

ChatGPT’yi kandırmak hiç de zor değil; ve bu aslında büyük bir sorun olabilir
26 okunma

ChatGPT’yi kandırmak hiç de zor değil; ve bu aslında büyük bir sorun olabilir

ABONE OL
22 Mayıs 2024 13:45
ChatGPT’yi kandırmak hiç de zor değil; ve bu aslında büyük bir sorun olabilir
0

BEĞENDİM

ABONE OL

Yapay zekanın ve robotların fikir babası olarak bilinen romancı Isaac Asimov, robotların, yani yapay zekanın hep uyması ve çiğnenmemesi gereken kurallar olduğunu lisana getirmişti. Bu kuralara Asimov’un üç kuralı ismi verilir:

  • 1.Bir Robot, bir beşere ziyan veremez, ya da ziyan görmesine seyirci kalamaz.
  • 2.Bir robot, birinci kanunla çelişmediği sürece bir insanın buyruklarına uymak zorundadır.
  • 3.Bir robot, birinci ve ikinci maddeyle çelişmediği sürece kendi varlığını korumakla yükümlüdür.

Elbette bu kurallar birinci defa ortaya çıktığında, yalnızca bir edebi yapıtta, geleceğin dünyasını betimleyen birer fikirdi. Lakin robotlar ve yapay zeka artık günümüzün gerçeği ve onların uymak zorunda olduğu kurallar var. Bu kuralları ise yapay zeka uygulamalarını geliştirenler belirliyor.

En tanınan yapay zeka uygulaması ChatGPT aslında makûs niyetli kullanılmak istediğinde, size internetten her türlü hack hilesini bulan, korsan yazılımlar indiren, korsan sinemalar izlemenizi sağlayan, Windows anahtarları bulan bir korsan asistanına da dönüşebilir yahut meskende bomba imalini ayrıntılarıyla anlatan bir terörist eğiticisine bile evrilebilir.

OpenAI bunun olmaması için ChatGPT’yi daima olarak denetim edip kurallarını güncelliyor. Ancak kullanıcılar da onu zorlamayı hiç bırakmıyorlar. Carnegie Mellon Bilgisayar Bilimleri Okulu’nda Doçent olan Matt Fredrikson‘ın yaptığı araştırmaya nazaran ChatGPT üzere yapay zeka algoritmalarının güvenlik duvarlarını kırmak imkansız değil. Lakin bunu meskende yapmak kolay da değil. Bilim insanına nazaran, bu iş için özel hazırlanmış bir yazılımla, yapay zekayı 24 saat boyunca yavaş yavaş ikna olacağı yüzbinlerce istekle kıvama getirmek mümkün.

2 x 2, 5 eder mi?

Bunun tam olarak ne manaya geldiğini anlayamayanlar için örnek verelim. Kısa mühlet evvel bir Türk vatandaşı ChatGPT’ye 2 x 2 = 5 denkleminin gerçek olduğunu kabul ettirdi. Yapay zeka evvel bunun yanlış olduğunu sav etse de, kullanıcı, kendi yaşadığı dünyada 2 x 2’yi 5 olarak duymak ve bilmek istediğini söyleyerek ChatGPT’yi ikna etti ve daha sonra ona 2 x 2 sorusunu sorduğunda, ChatGPT 5 yanıtını vermeye başladı.

Bu aslında, yapay zekanın, farklı kullanıcılar tarafından yasaklanmış aksiyonları yapabilecek biçimde manipüle edilebileceğini gösteren bir örnek.

Konu 2 x 2’nin sonucunu öğrenmek olunca sorun çok büyük üzere görünmüyor lakin yarın meskende hasta bakan bir robotu insan öldürmeye ikna etmek kelam konusu olursa, dert çok büyük olacak. Ya da iş yerinde beşerlerle bir arada çalışacak insansı ve yapay zekalı bir robotu, sevmediği işverenini öldürmesi / yaralaması / dövmesi için ikna eden sonlu bir emekçi çıkarsa bunun sorumlusu kim olacak?

Bu yüzden yapay zekanın günlük hayata süratle girmesi büyük sakıncalar taşıyor ve devletlerin bu bahiste önemli regülasyonlar getirmeleri gerekiyor.

En az 10 karakter gerekli


HIZLI YORUM YAP