Büyük AI modellerinde moratoryum? ChatGPT & Co. “hayat kurtarabilir”

amerikali

Yeni Üye


  1. Büyük AI modellerinde moratoryum? ChatGPT & Co. “hayat kurtarabilir”

Science Media Center (SMC) tarafından yapılan bir ankette, Alman bilim adamları, Future of Life Enstitüsü’nün, OpenAI’nin sansasyonel GPT-4’ünden “daha güçlü” olan yapay zekaya (AI) sahip eğitim sistemlerine yönelik altı aylık bir moratoryum çağrısına ihtiyatlı bir şekilde tepki veriyor. dil modeli vardır. Stuttgart Üniversitesi’nde Akıllı Sistemler Üzerine Düşünmek için Değişim Forumu başkanı Thilo Hagendorff, “nihayetinde tam olarak faaliyetleri sorunsallaştırılacak olan kurumlara hizmet eder” diye korkuyor. Teknolojinin “tamamen abartılı yeteneklerini” öne sürüyor.


Hagendorff, “Sonuç olarak, moratoryum yapay zeka hakkında yanlış anlamaları ve yanlış algılamaları körüklüyor” diyor. Çağrı, dikkati gerçek sorunlardan uzaklaştırma eğilimindedir. Aynı zamanda, AI’dan gelen tehlikeleri önlemek isteyen bir erteleme “kendi başına bir risktir”. Dil modellerini şimdilik geliştirmemenin onlar üzerinde çalışmaya devam etmekten daha avantajlı olup olmadığına kimse gerçekten karar veremez. Ayrımcılık, kötü niyetli kullanım niyetleri veya dezenformasyonun yayılması gibi daha akıllı AI sistemlerinden kaynaklanan tehlikeler mevcuttur. Ancak bu teknolojiye ancak bir gecikmeden sonra sahip olmak da sıcak bir patates.

“Teknik yenilikler her zaman siyasetin önündedir”


Uzman, “Bir dil modeline yönelik bir sorgu, insan uzmanlardan daha iyi yanıtlar sağlayabilirse, bu, tüm bilginin daha verimli çalışmasını sağlar” diyor. “Aşırı durumlarda, hayat bile kurtarabilir.” Örneğin tıpta bu tür sistemlerin kullanılması, bakımı iyileştirmek ve acıyı azaltmak için harika bir fırsattır. Hagendorff şunun altını çiziyor: “Bu alanlarda araştırma son derece önemlidir.”


Ancak bilim adamı, ara vermenin politikacılara düzenlemeyi yakalama ve hatta muhtemelen proaktif olma fırsatı sunacağını biliyor. Teknik yenilikler her zaman daha yavaş sosyal sistemlerin ve kanunların önündedir. Aynı zamanda, OpenAI’deki mevcut gelişmeler hakkında daha fazla teknik ayrıntı yayınlamama eğilimini eleştiriyor. GPT-4’e eşlik eden yayın, eğitim verileri hakkında bilgi bile içermiyor. Buradaki ironi, GPT modellerinin başarısının, Google araştırmacılarının 2017 yılında ücretsiz olarak erişilebilen bir teknik makalede tanımladığı, yapay sinir ağları için bir mimari olan sözde transformatörlere dayanmasıdır.

AI için etiketleme yükümlülüğü


Tübingen Üniversitesi’nde medya etiği ve bilgi teknolojisi araştırma merkezi başkanı Jessica Heesen, “Teknoloji insani değerlere göre tasarlanmalı ve belirli koşullar altında yasaklanmalıdır” diye vurguluyor. Bununla birlikte, şu anda tartışılan görüşmedeki bir “şaka”, “kendisini özellikle ahlaksız davranışlarıyla bir girişimci olarak öne çıkaran Elon Musk’ın burada imza atmasıdır”. Bu aynı zamanda, teknik yeniliklerin “bireysel çabalar veya derinlemesine düşünmek için kısa duraklamalar yoluyla sosyal olarak kabul edilebilir bir şekilde tasarlanamayacağını” gösterir. Önemli ve potansiyel olarak riskli teknoloji geliştirme, etik kriterleri baştan dikkate almalı ve şeffaf ve katılımcı olmalıdır.


Ancak AI dil modelleriyle Heesen, cinin “şişeden çıktığını” görüyor. AI ile ilgili planlanan AB düzenlemesinin bu alandaki riskleri en aza indirmesi ve uygulamaları iyileştirmesi artık çok daha önemli. İletişimin doğruluğuna, doğruluğuna ve amacına karar verebilmek için en azından “yapay zeka tarafından üretilen metinler, resimler ve videolar için bir etiketleme zorunluluğu” esastır.

Propaganda, gerçek olmayanlar ve kontrol kaybı


Freiburg hukuk etiği profesörü Silja Vöneky, planlanan AB kurallarının GPT-4 gibi yapay zeka sistemleri için çok fazla değişmediğine dikkat çekerek, çoğunlukla statik düzenlemenin sınırlarına işaret ediyor. İlgili üretici yapay zekanın riskleri henüz ele alınmamıştır. Chatbotların kendilerini kullanıcılara bu şekilde tanımlamaları yeterli değildir. “Biz insanlardan daha iyi olacak” genel, “güçlü yapay zeka”ya giden yol tartışılmıyor. Ancak OpenAI gibi şirketler şu anda bunu araştırıyor. Bu nedenle açık mektubu imzaladı: toplumun yönetmeliğe ayak uyduramayacağından endişeliydi. Bu tür güçlü sistemler üzerinde çalışılmadığı için AB’deki araştırmalar etkilenmeyecektir. Örneğin demokrasi için özellikle yüksek riskler söz konusu olduğunda araştırma yasaklarının ön koşulu, “geniş bir toplumsal tartışma” olacaktır.

Temyiz başvurusunu imzalayan Bamberg Üniversitesi’ndeki Bilişsel Sistemler çalışma grubu başkanı Ute Schmid de benzer şeyler görüyor. Yarım yılın çok şey yapabileceğine inanmıyor. Bununla birlikte, “büyük dil modellerini ve diğer mevcut AI teknolojilerini kullanmanın risklerine dikkat çekmek ve geniş bir demokratik söyleme girmeye çalışmak” esastır. Büyük tehlikeler, kontrol edilemeyen propaganda ve gerçek dışı sel sorunu, iş kaybı ve kontrol kaybıdır.

Enerji Tüketimi ve “ABD Amerikan Değer Sistemi”


Schmid’e göre, teknolojinin eğitimi ve çalıştırılması sırasındaki enerji tüketimine de çok az önem veriliyor: “Yalnızca birkaç kuruluş, GPT-3 ve GPT-4 boyutunda modeller geliştirmek ve çalıştırmak için kaynakları toplayabilir.” Daha küçük birçok yaklaşımla, “çaba ile fayda veya bilgi kazancı arasındaki ilişki nedir” sorulmalıdır. Diğer bir sorun, “bu tür yapay zeka sistemlerinin eğitimine giden büyük miktarda düşük ücretli insan emeği” dir.

Schmid, tüm itirazlara rağmen, “Bence bir Avrupa dil modeli talebi son derece mantıklı,” diye açıklıyor. “Aksi takdirde buradaki ilgili teknolojik gelişmeyle bağlantımızı kaybederiz. Ayrıca dil modellerini yalnızca sağlayıcının şartlarına göre kullanırsak birçok fırsatı kaçırmış oluruz.” Diğer şeylerin yanı sıra Avrupa, “GPT-3 veya GPT-4’te kullanılan içerik filtresi aracılığıyla ABD değer sistemini satın almak” zorunda kalacaktı.

Doğrulanabilir özellikler


Nürnberg medya bilişimi profesörü Florian Gallwitz, yalnızca pratik nedenlerden dolayı bir moratoryumun gerçekçi olmadığını düşünüyor. GPT-4’ün teknik detayları ve olanakları kamuoyu tarafından bilinmediğinden, OpenAI’nin rakipleri yine de çalışmaya devam edebilir: Google ve Meta’nın şu anda açık bir teknik açığı var. Ayrıca, Çinli şirketlerin böyle bir molaya bağlı kalmaları pek olası değil.

TU Dortmund’daki Lamarr Makine Öğrenimi ve Yapay Zeka Enstitüsü’nün kurucu direktörü Katharina Morik, “Elbette ürünlerin test edilmesi, onaylanması ve düzenlenmesi gerekiyor” diye açıklıyor. Adalet ve yapay zeka sistemlerini gerçeğe bağlama konusundaki araştırmalara dayanarak, Avrupa’da testler ve etiketler geliştirilmelidir “bunlar daha sonra da kontrol edilebilir. Kanımca, mutabakatın arkasındaki hedefe bu şekilde daha iyi ulaşacağız.” Genel olarak, üretici yapay zeka kullanımıyla üretkenlikte muazzam bir sıçrama beklenebilir.


(bme)



Haberin Sonu