Profesyonel Amp Hizmetleri Skype: live:.cid.ad0b1c84c064c583

Apple, Google, Meta ve Microsoft Gibi Teknoloji Devleri, ABD’nin Yapay Zekânın Güvenliği İçin Oluşturduğu Konsorsiyuma Katılacak

Yapay zekânın nasıl denetim edileceği son periyotta hem şirketlerin hem sivil toplum örgütlerinin hem de yetkililerin gündeminde kıymetli yer tutan bahislerin başında geliyor. ABD hükûmeti de bu alanda çeşitli adımlar atıyor. Bunlardan biri de üretken yapay zekâların güvenli halde geliştirilmesini ve kullanılmasını sağlayan bir konsorsiyum oluşturmak. Beyaz Saray hükûmeti, 200’den fazla kurumun ilgili konsorisyuma dahil edileceğini açıkladı. 

Teknoloji devleri başı çekecek

ABD Ticaret Bakanı Gina Raimondo tarafından yapılan açıklamaya nazaran, ABD Yapay Zekâ Güvenlik Enstitüsü Konsorsiyumuna dahil olacak öncü kuruluşlar ortasında OpenAI, Google, Anthropic, Microsoft, Meta, Apple, Amazon.com, NVIDIA, Palantir, Intel, JPMorgan Chase ve Bank of America yer alıyor. 

Konuyla ilgili bir açıklama yapan Raimondo, “ABD hükûmetinin, yapay zekânın risklerini azaltmak ve muazzam potansiyelinden yararlanmak için muhtaçlık duyduğumuz standartları belirlemekte ve araçlar geliştirmekte oynaması gereken kıymetli bir rolü var.” sözlerini kullandı. Hâlihazırda BP, Cisco, IBM, Hewlett Packard, Northop Grumman, Mastercard, Qualcomm, Visa üzere kurumların da katıldığı konsorsiyum, ABD Yapay Zekâ Güvenlik Enstitüsü çatısında yer alacak. 

Grubun emeli ise yapay zekânın yeterliliklerinin belirlenmesini sağlamak, rehberler oluşturmak, risk yönetimi, güvenlik ve saklılık manasında gerekli adımların atıldığından emin olmak olarak belirtiliyor. Son devirde sık sık haberleri çıkan yapay zekâ içeriklerini işaretleme çalışmaları da aslında ABD ve AB’nin getirdiği kısıtlamaların bir sonucu olarak göze çarpıyor. 

Konsorsiyum ayrıyeten “Kırmızı Takım” çalışmalarıyla yapay zekâların açıklarını da bulmaya çalışacak. (Soğuk Savaş yıllarında ABD’nin senaryolarında Sovyetler Birliği, Kırmızı Kadro olarak isimlendirilirdi.) Yapay zekâ, kimyasal, biyolojik, radyolojik, nükleer ve siber güvenlik riskleri açısından daima olarak test edilecek. Böylelikle yapay zekâ güvenliği için yeni ölçüm yolları belirlenecek.