ABD, Yapay Zeka Devleri İçin Güvenlik Testi Programını Başlattı

Ticaret Bakanlığı, Biden yönetim çerçevelerini temel alan yeni yapay zeka modeli güvenlik değerlendirmeleri için Google, Microsoft ve xAI ile iş birliği yapıyor.
Amerika Birleşik Devletleri hükümeti, önde gelen teknoloji şirketleri tarafından geliştirilen gelişmiş yapay zeka modellerinin emniyetini ve güvenliğini değerlendirmeye yönelik önemli yeni bir girişimin duyurusunu yaptı. Ticaret Bakanlığı ile aralarında Google, Microsoft ve xAI'nin de bulunduğu önde gelen AI geliştiricileri arasında yeni oluşturulan anlaşmalar uyarınca federal hükümet, yeni nesil AI sistemleri üzerinde kapsamlı güvenlik testi protokolleri yürütecek. Bu düzenlemeler, önceki yönetimin görev süresi sırasında oluşturulan gözetim mekanizmalarının devamını ve genişletilmesini temsil ediyor.
Test çerçevesi doğrudan Biden yönetimi sırasında varılan ve Yapay zeka modeli geliştirme için temel güvenlik standartları oluşturmayı amaçlayan temel anlaşmalara dayanıyor. Mevcut yönetim, bu yapıları parçalamak yerine, daha geniş teknoloji politikası gündeminin bir parçası olarak bunları iyileştirmeyi ve genişletmeyi seçti. Bu yaklaşım, güçlü yapay zeka sistemlerinin sorumlu bir şekilde geliştirilmesini ve ekonominin kritik sektörlerinde güvenli bir şekilde konuşlandırılmasını sağlamak için belirli düzeyde hükümet gözetiminin gerekli olabileceğine dair her iki partinin de artan farkındalığını yansıtıyor.
ABD Başkanı Donald Trump, görevdeki ilk haftalarında, yönetiminin yapay zeka yönetimine yaklaşımını şekillendirmek için tasarlanmış bir dizi idari kararnameyi imzaladı. Bu emirler toplu olarak yetkililerin "Yapay Zeka Eylem Planı" olarak adlandırdığı şeyin temelini oluşturdu; bu girişim, Trump yönetimi yetkililerinin temel güvenlik gözetimini sürdürürken "düzenleme yüklerini azaltmak" için tasarlanmış olarak tanımladığı bir girişim. Plan, en kritik güvenlik sorunlarının değerlendirilmesinde hedeflenen hükümet katılımını korurken, inovasyonu engelleyebilecek gereksiz bürokratik engellerin kaldırılmasını vurguluyor.
Ticaret Bakanlığı'nın bu gözetim sürecindeki rolü, federal Yapay Zeka politikasının uygulanmasında giderek daha merkezi hale geliyor. Bakanlık, bu güvenlik testi anlaşmalarını kolaylaştırmaktan ve katılımcı şirketlerin belirlenmiş kriterleri karşılamasını sağlamaktan sorumlu birincil federal kuruluş olarak hizmet vermektedir. Ticaret Bakanlığı yetkilileri, bu test protokollerinin, gelişmiş yapay zeka modellerinin siber güvenlik, biyolojik araştırma ve kötüye kullanımın ciddi sonuçlara yol açabileceği diğer hassas alanlar gibi alanlarda potansiyel riskler oluşturup oluşturmadığını değerlendirmeye odaklanacağını belirtti.
Google, Microsoft ve xAI, şu anda Amerika Birleşik Devletleri'nde geliştirilmekte olan büyük dil modellerinin ve diğer gelişmiş yapay zeka sistemlerinin en önde gelen geliştiricilerinden üçünü temsil etmektedir. Google'ın yapay zeka araştırma bölümü Gemini gibi modeller üretirken Microsoft, OpenAI ortaklıklarına büyük yatırım yaptı ve kendi yapay zeka yeteneklerini geliştirdi. Elon Musk'un yeni yapay zeka girişimi xAI, rekabetçi büyük dil modellerini hızla geliştirmesiyle dikkat çekti. Bu şirketlerin her biri, yapay zeka geliştirme süreçlerine farklı yaklaşımlar, mimariler ve güvenlik felsefeleri getiriyor.
Bu anlaşmaların gönüllü niteliği, mevcut düzenleme yaklaşımının tanımlayıcı bir özelliği olarak öne çıkıyor. Federal yetkililer, yasalar veya resmi düzenlemeler yoluyla zorunlu hükümet gerekliliklerini dayatmak yerine, bu test düzenlemelerini şirketlerin kendileriyle doğrudan temas kurarak müzakere etti. Bu yaklaşım, Trump yönetiminin, yetkililerin inovasyonu engelleyebileceğine inandığı yukarıdan aşağıya düzenleyici zorunluluklar yerine, hükümet denetimiyle desteklenen sektör odaklı yönetişim mekanizmalarına yönelik beyan ettiği tercihiyle uyumludur.
Bu anlaşmalar kapsamında kullanılan belirli güvenlik testi metodolojileri, yapay zeka modellerinin rakip yönlendirmelere, güvenlik yönergelerini atlama girişimlerine ve diğer olası kötüye kullanım senaryolarına nasıl yanıt verdiğini inceleyecek. Değerlendiriciler, modellerin zararlı içerik oluşturacak veya tehlikeli faaliyetlere yardımcı olacak şekilde yönlendirilip yönlendirilemeyeceğini değerlendirecek. Bu testler, yapay zeka sistemlerindeki güvenlik açıklarını, geniş çapta dağıtılmadan ve genel halk ya da potansiyel olarak kötü niyetli aktörler tarafından erişilebilir hale gelmeden önce belirlemeye yönelik bir çabayı temsil ediyor.
Biden yönetiminin çerçevesinin devamlılığı, hükümet denetiminin belirli temel ilkelerinin her iki partinin de desteğini aldığını gösteriyor. Önceki yönetim, kuralcı düzenlemeler yerine gönüllü test anlaşmalarına ve endüstri standartlarının geliştirilmesine odaklanan daha hafif bir düzenleme yaklaşımı izlemişti. Bu çerçeve, teknoloji şirketleri için Kongre'de dolaşan daha agresif düzenleme tekliflerinden daha kabul edilebilir olduğunu kanıtladı, ancak güvenlik değerlendirme süreçlerine anlamlı hükümet katılımını sürdürdü.
Bu anlaşmaların zamanlaması, yapay zeka yeniliklerini teşvik etmek ile meşru güvenlik endişelerini gidermek arasında süregelen gerilimi yansıtıyor. Teknoloji sektörü, aşırı külfetli düzenlemelerin yapay zeka gelişimini yurt dışında, daha az katı güvenlik gereklilikleri veya daha zayıf gözetim mekanizmaları olan ülkelere yönlendirebileceği konusunda sürekli olarak uyardı. Federal yetkililer, yeni yapay zeka yeteneklerinin geliştirilmesi ve devreye alınmasındaki bürokratik sürtüşmeleri en aza indirirken güvenlik gözetimini sürdürerek bu endişeleri dengelemeye çalıştı.
Sektör gözlemcileri, bu düzenleyici yaklaşımın diğer ülkelerin kendi yapay zeka yönetişim çerçevelerini yapılandırma şeklini etkileyebileceğini belirtti. Amerika Birleşik Devletleri, Avrupa Birliği ve diğer büyük ekonomiler yapay zeka gözetimine yönelik farklı yaklaşımlar geliştirirken, uluslararası alanda faaliyet gösteren şirketlerin birden fazla düzenleyici rejimde gezinmesi gerekiyor. Ticaret Bakanlığı'nın güvenlik gözetimini sürdürürken inovasyon kapasitesini korumaya verdiği önem, potansiyel olarak yapay zeka yönetişim standartlarında uluslararası koordinasyon için bir model görevi görebilir.
Yapay zeka güvenlik değerlendirmesi süreci büyük olasılıkla bağımsız değerlendiricilerin yapay zeka sistemlerinin güvenlik mekanizmalarındaki zayıflıkları belirlemeye çalıştığı kırmızı ekip çalışmalarını içerecektir. Bu alıştırmalar, kötü niyetli aktörlerin güvenlik açıklarından nasıl yararlanmaya çalışabileceğini simüle ederek geliştiricilerin hangi risklerin ek hafifletme gerektirdiğini anlamalarına yardımcı olur. Bu değerlendirmelerin sonuçları, hem şirket içi uygulamalara hem de sektördeki yapay zeka güvenliğinin mevcut durumuna ilişkin federal anlayışa bilgi sağlayacak.
İleriye dönük olarak, bu test anlaşmaları ek AI geliştiricilerini kapsayacak şekilde genişleyebilir ve yeni AI modelleri ve uygulamaları kategorilerini kapsayabilir. Yapay zeka teknolojisi hızla ilerlemeye devam ettikçe ve yeni şirketler gelişmiş yapay zeka geliştirme alanına girdikçe Ticaret Bakanlığı'nın gözetim mekanizmalarını ayarlaması gerekebilir. Mevcut çerçeve, teknolojik değişime ve henüz tam olarak anlaşılamayan yeni ortaya çıkan güvenlik endişelerine uyum sağlayacak esneklikle tasarlanmış gibi görünüyor.
Siyasi yelpazedeki paydaşlar, hükümetin yapay zeka gözetiminin uygun düzeyi ve niteliği hakkında farklı bakış açıları dile getirdi. Bazı savunucular zararlı yapay zeka gelişimini önlemek için daha güçlü zorunlu düzenlemelerin gerekli olduğunu savunurken, diğerleri gönüllü yaklaşımların ABD'yi yapay zeka araştırmalarında küresel bir lider haline getiren yenilik teşviklerini koruduğunu iddia ediyor. Ticaret Bakanlığı'nın anlaşmaları, endüstrinin çatışmacı yönetim yaklaşımları yerine işbirlikçi yönetim yaklaşımlarına yönelik tercihlerine saygı gösterirken hükümetin katılımını sürdürerek bu iğneyi geçme girişimini temsil ediyor.
Kaynak: BBC News


