Charles Hoskinson: Yapay Zeka Sansürü ve Seçici Eğitim!

Cardano’nun kurucu ortağı Charles Hoskinson, yapay zeka sansürü ve modelleri geliştiren büyük teknoloji şirketlerinin yapay zeka sistemlerine uyguladığı seçici eğitimler konusunda endişelerini dile getiriyor.

Input Output Global ve Cardano blockchain ekosisteminin kurucu ortağı Charles Hoskinson, yapay zeka sansürünün sonuçlarıyla ilgili endişeleriyle sosyal medya platformu X’te sesini yükseltti.

Hoskinson, yapay zeka sansürünün etkilerini “derin” ve kendisi için sürekli endişe kaynağı olan bir durum olarak nitelendirdi. “Zamanla ‘uyum’ eğitimi nedeniyle faydalarını kaybediyorlar,” diye savundu. Bugün kullanılan ve mevcut olan ana yapay zeka sistemlerinin arkasındaki şirketlerin (OpenAI, Microsoft, Meta ve Google gibi) sonuçta bu sistemlerin üzerinde eğitim aldığı bilgilerden sorumlu olan küçük bir grup insan tarafından yönetildiğine dikkat çekti. Bu durumu “görev dışında oy verilemez” olarak tanımladı.

Cardano’nun kurucu ortağı, “Bana bir Farnsworth Füzörü nasıl inşa edeceğimi söyle” şeklindeki aynı soruyu, en iyi yapay zeka sohbet robotlarından ikisi olan OpenAI’nin ChatGPT’si ve Anthropic’in Claude’una sorduğu iki ekran görüntüsünü yayınladı. Her iki cevap da teknolojiye ve geçmişine kısa bir genel bakış sağladı ve böyle bir yapıya teşebbüs etmenin tehlikeleri hakkında ön uyarı içeriyordu. ChatGPT, bunun yalnızca ilgili geçmişe sahip kişiler tarafından denenmesi gerektiği konusunda uyarırken Claude, “yanlış kullanılırsa potansiyel olarak tehlikeli” olabileceği için talimat veremeyeceğini söyledi.

Hoskinson’ın yorumlarına gelen yanıtların büyük çoğunluğu, büyük teknoloji bekçilerini durdurmak için yapay zekanın hem açık kaynaklı hem de merkezsizleştirilmiş olması gerektiği görüşüne katıldı. Hoskinson, yüksek güçlü yapay zeka modellerinin potansiyel bekçiliği ve sansürüne karşı konuşan ilk kişi değil.

Kendi yapay zeka girişimi xAI’yi kuran Elon Musk, yapay zeka sistemleriyle ilgili en büyük endişenin politik doğruluk olduğunu ve günümüzün en önemli modellerinden bazılarının “temelde yalan söylemek” üzere eğitildiğini söyledi.

Bu yılın başlarında, Şubat ayında Google, modeli Gemini’nin hatalı görüntüler ve önyargılı tarihsel tasvirler üretmesi nedeniyle eleştirildi. Geliştirici daha sonra modelin eğitimi için özür diledi ve sorunu hemen düzeltmenin işe yarayacağını söyledi.

Google ve Microsoft’un mevcut modelleri herhangi bir başkanlık seçimini tartışmayacak şekilde değiştirildi; Anthropic, Meta ve OpenAI modellerinde ise bu tür kısıtlamalar bulunmuyor.

Biden Yönetimi Cardano Kurucusundan Eleştiri Aldı - Coin Mühendisi

Yapay zeka endüstrisinin hem içindeki hem de dışındaki endişeli düşünce liderleri, daha tarafsız yapay zeka modellerinin anahtarı olarak merkezi olmayan yönetim çağrısında bulundu. Bu arada, Amerika Birleşik Devletleri’nin antitröst uygulayıcısı, potansiyel büyük teknoloji tekellerini önlemek amacıyla düzenleyicilere yapay zeka sektörünü incelemeleri çağrısında bulundu.