Çinli yapay zeka geliştiricisi DeepSeek’in son modeli Google Gemini verileriyle mi eğitildi?

Uzmanlar, DeepSeek Yapay Zeka Modelinin Google’ın Gemini Verilerinden Eğitildiğine Dair İddiaları Araştırıyor

Yapay zeka uzmanları ve geliştiriciler, son olarak Çinli laboratuvar DeepSeek tarafından yayınlanan R1 akıl yürütme yapay zeka modelinin eğitim verilerinin bir kısmının Google’ın Gemini yapay zeka ailesinden geldiğine dair şüphelerini dile getiriyor.

Geçtiğimiz hafta piyasaya sürülen bu güncellenmiş model, matematik ve kodlama kriterlerinde oldukça yüksek performans sergiledi. Ancak modelin eğitiminde kullanılan veri kaynağı hakkında şirketten net bir açıklama gelmedi. Bazı yapay zeka araştırmacıları, verilerin en azından bir bölümünün Google’ın Gemini yapay zeka ailesine ait olabileceğini speküle ediyor.

Melbourne merkezli yapay zeka geliştiricisi Sam Paech, DeepSeek’in son modelinin Google’ın Gemini verilerinden eğitildiğini iddia ediyor. Paech, modelin tercih ettiği kelime ve ifadelerin, Gemini 2.5 Pro’nun benzer ifadelerine dayandığını belirtiyor.

Bu iddialar kesin bir kanıt niteliği taşımıyor olsa da SpeechMap adlı “duygusal zeka” değerlendirme aracını oluşturan bir başka geliştirici, DeepSeek modelinin “Gemini izleri gibi okunduğunu” ifade ediyor.

DeepSeek’in Geçmişteki Veri Kullanımı Tartışmaları

DeepSeek, daha önce de rakip yapay zeka modellerinden veri toplamakla suçlanmıştı. Geliştiriciler, V3 modelinin OpenAI’ın ChatGPT isimli sohbet botu platformu üzerinde eğitilmiş olabileceğini gözlemlemişti.

Aralık ayında, OpenAI ile ilişkilendirilen Microsoft, büyük miktarda verinin sızdırıldığını tespit etti ve bu verilerin DeepSeek ile ilişkilendirilmesi üzerine soruşturma başlatıldı. Bu durum, yapay zeka modellerinin eğitiminde “distilasyon” yönteminin kullanılmasıyla bağlantılıydı.

Buna rağmen, OpenAI’nin hizmet koşulları, müşterilerin rakip yapay zeka oluşturmak için şirketin model çıktılarını kullanmasını yasaklıyor.

Veri Kirliliği ve Yapay Zeka Şirketlerinden Alınan Önlemler

Yapay zeka şirketleri, artan veri kirliliği ve distilasyon yöntemi ile eğitim verilerine ulaşma sorunlarıyla mücadele etmek için güvenlik önlemlerini artırıyor.

OpenAI’nin belirli gelişmiş modellere erişimine kimlik doğrulama süreci koyarak güvenliği sağlamaya çalışması, yapay zeka alanında yeni bir dönemi başlatabilir. Aynı şekilde Google ve Anthropic gibi şirketler, model izlerini koruma altına almak için çeşitli önlemler almaya başladı.

Yapay zeka alanındaki gelişmeleri yakından takip etmeye devam edeceğiz. Haberimizi güncellemelerle sizlere aktarmaya devam edeceğiz.

Related Posts

Çinli hackerlar Microsoft’u deldi geçti!

ABD’li teknoloji devi Microsoft’tan paylaşılan yeni blog yazısında, şirketin bazı sunucularına düzenlenen hacker saldırısına ilişkin yeni bir değerlendirme yapıldı. “Yanıltıcı kimlik” ve “uzaktan kod çalıştırma” açıklarından faydalanan aktif …

WhatsApp’ta reklam dönemi başlıyor

WhatsApp’ta reklam dönemi başlıyor

Çin’den yeni model… Fiyatı 444 bin lira, 537 kilometre menzili var

Çinli SAIC tarafından satın alınan MG’nin yeni modelinin Ağustos ayında satışa çıkması bekleniyor.

Bilim insanları 100 milyon yaşında zombi mantarı buldu

Bilim insanları, kehribar içinde neredeyse kusursuz bir şekilde korunmuş, 100 milyon yaşında bir ‘zombi mantarı’ bulduklarını duyurdular.

Google Pixel Watch 4’ün fiyatı, özellikleri ve çıkış tarihi belli oldu

Google’ın yeni nesil akıllı saati Pixel Watch 4, tanıtımına günler kala Avrupa fiyatlarıyla birlikte gündeme oturdu. Fransız kaynaklara dayandırılan sızıntılara göre, Pixel Watch 4’ün 41 mm’lik Wi-Fi modeli 399 euro, LTE destekli versiyonu ise 499 …

Yapay Zeka içme suyumuzu nasıl kullanıyor? Tehdit olabilir mi?

Yapay Zeka içme suyumuzu nasıl kullanıyor? Tehdit olabilir mi?