AB 'Varoluşsal tehlike, katil robotları' yasakladı
Uzmanlar otonom silah teknolojisinin insanlık için geri döndürülmesi zor bir tehdit oluşturacağa dikkat çekerek, "Bu silahlar savaşların eşi benzeri görülmemiş boyutlar ve hızlarda olmasına yol açacak. Pandora'nın Kutusu bir kere açılırsa onu geri kapatmak zor olacak” diyor.
14.09.2018

IMPNews - Avrupa Parlamentosu, insan müdahalesi olmadan insanları öldürebilecek otonom silah sistemlerinin geliştirilmesi ve kullanılmasını yasaklayan bir karar aldı. Bu alanda uluslararası bir yasak çağrısı da yapan karara kimi parlamenterler ise yapay zekanın gelişimini kısıtlayabileceği çekincesiyle karşı çıkıyor. Parlamenterlerin bir kısmı da bazı ülkelerin bu tür silahlar geliştirirken diğer ülkelere izin verilmemesinin bir güvenlik sorunu yaratabileceğini düşünüyor.

Otonom silah sistemleri şu anda dünyadaki birçok savaş bölgesinde kullanılıyor. 

Otonom silahlardan endişe duyan bilim insanları daha önce de konuyu Birleşmiş Milletler'in gündemine getirmiş ve 19 ülkenin desteğini almıştı. Ancak İngiltere ve ABD gibi ülkeler bu konuda yapılacak bir düzenlemenin "insan kontrolü" kavramını tanımlamanın zorluğu nedeniyle faydasız olacağını söyleyerek düzenlemeye destek vermemişti. Günümüzde İHA'lardan hava savunma sistemlerine kadar pek çok savunma teknolojisinde belli ölçüde otonom yeteneklere sahip.

Otonom silah üretimi durdurulsun kampanyası

Geçmişte aralarında ünlü İngiliz astrofizikçi Prof. Dr. Stephen Hawking, Apple'ın kurucusu Steve Wozniak ve SpaceX'in yöneticisi Elon Musk'ın da aralarında bulunduğu bine yakın bilim adamı yapay zekanın potansiyeline dikkat çeken bir mektup kaleme aldı ve dünyaya "Büyük bir askeri gücün otonom silahları geliştirmeye başlaması, korkunç sonuçlara yol açabilir" mesajı vermişti. Astrofizikçi Prof. Dr. Stephen Hawking de aralarında bulunduğu bine yakın bilim adamının imzasını taşıyan ortak mektup, Arjantin'in başkenti Buenos Aires'teki Uluslararası Yapay Zeka Konferansı'nda okunmuştu. Mektupta "Hedef seçiminde hala insanlara bağlı olan seyir (cruise) füzeleri ve insansız hava araçlarından farklı olarak yapay zekayla kontrol edilen silahlar ya da katil robotlar, hedeflerini insanlarla doğrudan iletişim kurmadan seçip vuracak. Büyük bir askeri gücün otonom silahları geliştirmeye başlaması, korkunç sonuçlara yol açabilir" denilmişti.

Otonom silahların barut ve nükleer silahların ardından savaş alanında "üçüncü devrim" olarak nitelendiğine dikkat çekilen mektupta, "Nükleer, kimyasal ya da biyolojik silahların aksine otonom silahlar, çok sayıda ve düşük maliyetle üretilebilecek. Bu silahlar, kolayca karaborsaya, oradan da terör örgütlerinin eline düşebilir. Dünyanın önde gelen askeri güçlerinden birinin otonom silah geliştirmeye başlamasının, küresel bir yarışa yol açması kaçınılmazdır. Bu durumda otonom silahlar, geleceğin kalaşnikofu haline gelecektir" denilmişti.

Otonom silahların suikastler, soykırım ve nüfus kontrolü gibi kitlesel ölümlere yol açacak eylemler için ideal seçenek olacağına işaret edilen mektupta, "Dünyanın önde gelen askeri güçleri, otonom silah geliştirme yarışını daha başlamadan sona erdirmek zorundadır" ifadesine yer verilmişti.

Mektubu imzalayanlar arasında Apple'ın kurucularından Steve Wozniak, merkezi Amerika'nın Kaliforniya eyaletindeki Hawthorne şehrinde bulunan bir Amerikan uzay taşımacılığı şirketi SpaceX şirketinin Üst Yöneticisi Elon Musk, İngiliz yapay zeka araştırmaları yapan DeepMind şirketinin kurucusu Demis Hassabis, filozof Noam Chomsky ve Google yöneticilerinden Peter Norvig de yer alıyor.

 

 

Uzmanlar otonom silah teknolojisinin insanlık için geri döndürülmesi zor bir tehdit oluşturacağa dikkat çekerek, "Otonom silahlar savaşların eşi benzeri görülmemiş boyutlar ve hızlarda olmasına yol açacak. Pandora'nın kutusu bir kere açılırsa onu geri kapatmak zor olacak” diyor.  BBC'ye kınuşan AB Dışişleri ve Güvenlik Politikaları Yüksek Temsilcisi Federica Mogherini, "Bu tartışma uzak gelecek veya bilim kurguyla ilgili bir tartışma gibi gözükebilir ama değil" diyor.

AP Yeşiller - Avrupa Özgür İttifakı Parlamento Grubu’nun güvenlik politikaları sözcüsü Bodil Valero, "Otonom sistemler uluslararası çapta yasaklanmalı" diyor: "Ölüm ve yaşam arasındaki kararı verme yetkisi asla insanlardan alınıp makinelere verilmemeli.”

Geçen ay bu konuyu gündeme alan Birleşmiş Milletler, bir karara varamamıştı. Bazı ülkeler bu sistemlerin faydalarının araştırılmasını istiyor. Konu Kasım'da tekrar BM'nin gündemine alınacak. BM'nin bu sefer bir karara varabilmesi umuluyor. Ağustos ayında da çeşitli ülkelerden uzmanlar BM'nin İsviçre'nin Cenevre kentindeki merkezinde bir araya gelerek bilgisayar tarafından kontrol edilen silahları tanımlamak ve düzenlemek için bir çerçeve hazırlamaya çabalamıştı.

Yapay zeka hukuktan hızlı ilerliyor

Uluslararası Af Örgütü Yapay Zeka Araştırmacısı Rasha Abdul Rahim o dönemde "Yapay zekalı İHA'lardan kendi hedefini seçebilen otomatik silahlara kadar teknolojik gelişim uluslararası hukuktan hızlı ilerliyor" ifadelerini kullanmıştı. Ağustos'taki toplantıda İsrail, Rusya, Güney Kore ve ABD'nin de dahil olduğu bazı ülkeler otonom silah sistemlerinin potansiyel "avantajlarını" araştırmak istediklerini söyleyerek yasağa karşı çıkmıştı.

BM, yapay zeka tehditleri merkezi kurdu

Birleşmiş Milletler (BM), yapay zekayla ilgili gelişmeleri ve yaratabileceği tehditleri incelemek için Hollanda'nın Lahey kentinde bir merkez kurdu. Guardian’ın haberine göre, Yapay Zeka ve Robotlar adıyla kurulan bu merkezde, otonom robotlar konusundaki teknolojik ilerlemelerden kitlesel işsizliğe, olası riskler araştırılacak. BM Suç ve Adalet Araştırma Enstitüsü'nden strateji danışmanı Irakli Beridze, "toplumlar gelişmelere hızla adapte olmazsa, bunun istikrarsızlık yaratabileceğini" söyledi. Yapay zekâ bazıları için insanlığın kurtuluş yolu, kimilerine göreyse insan ırkının sonuna giden yolun başlangıcı.

'Otonom silahlanma yarışı'

Kısa süre önce dünyanın önde gelen 100 robot uzmanı, BM'ye yazdıkları mektupta, ”Pandora'nın kutusu açıldıktan sonra kapatması zor olur” uyarısı yapmıştı. Tesla'nın kurucusu Elon Musk ve Google'ın satın aldığı yapay zeka şirketi DeepMind'ın kurucusu Mustafa Süleyman'ın da aralarında olduğu imzacılar, öldürme yeteneği olan robotların geliştirilmesinin ve kullanılmasının yasaklanmasını talep ederek, bu robotların yeni bir silahlanma yarışı çıkarabileceğini söylüyordu.

'Varoluşsal tehlike'

Dünya Ekonomik Forumu'na göre, önümüzdeki yıllarda işgücü piyasasında 7.1 milyon iş tarihe gömülebilir. PwC araştırma şirketinin raporunda da, yapay zekanın İngiltere'deki işlerin yüzde 30'unu ortadan kaldırabileceği belirtiliyor.

Alman Deutsche Bank'ın CEO'su John Cryan, yapay zekâ ve otomasyon geliştikçe robotların 'abaküs görevi gören' bazı çalışanların yerine geçebileceğini söylemişti. Cryan, "Bankalarımızda mekanik işler yaparak robotlar gibi davranan çalışanlarımız var. Yarın bir gün, insanlar gibi davranan robotlarımız da olabilir" demişti.

Teknoloji uzmanı Elon Musk'ın uyardığı gibi, "yapay zeka karşımızdaki en büyük varoluşsal tehlike" olabilir veya Stephen Hawking'in dediği gibi: "Yapay zeka insanlığın başına gelen en iyi şey de olabilir, en kötü şey de"

'Akıllı katil robot' geliştirmek isteyen üniversiteye boykot

Yapay zeka ve robotik alanlarında önde gelen 50'den fazla araştırmacı, yapay zeka destekli silahlar geliştirme planları yapan Güney Kore'deki KAIST Üniversitesi'ni boykot edeceklerini açıkladı.

Birleşmiş Milletler'in Cenevre'de "katil robotlara" sınırlandırma getirmeyi tartışacağı toplantıdan bir hafta önce duyurulan boykot, yapay zeka destekli silahlara karşı aktif olarak mücadele eden bilim dünyasının taktiklerinde yeni bir aşamayı işaret ediyor. Boykotun örgütlenmesine önderlik eden New South Wales Üniversitesi'nden Profesör Toby Walsh, otonom silahlar yapma yarışının çoktan başladığını söyledi. Walsh "ABD, Çin, Rusya ve İngiltere de dahil olmak üzere pek çok ülkede otonom silahların prototiplerini görebiliriz" dedi: "Yapay zekanın askeri bağlam da dahil olmak üzere kullanılabileceği çok faydalı alanlar var. Fakat bu açıklama öyle bir şeye hizmet etmiyor.

Güney Kore'nin en büyük silah üreticilerinden biri olan Hanhwa, uluslararası anlaşmalarla 120'den fazla ülkede yasaklanmış olan misket bombası üretiyor. Rusya, ABD ve Çin gibi Güney Kore de misket bombalarını yasaklayan anlaşmayı imzalamadığı için bu silahı üretebiliyor.

Boykot karşısında çok üzüldüğünü açıklayan KAIST Rektörü Sunh-Chul Shin, üniversitenin otonom silah sistemi geliştirmediğini iddia etti: "Bir akademik kurum olarak insan hakları ve etik değerlere çok önem veriyoruz. KAIST insan onuruna aykırı araştırmalar yapmayacak, buna anlamlı bir ölçüde insan kontrolünde olmayan silahlar dahil.

YORUMLAR (0 Yorum)

Bu sayfalarda yer alan okur yorumları kişilerin kendi görüşleridir.
Yazılanlardan imp-news sorumlu tutulamaz