Çinli yapay zeka geliştiricisi DeepSeek’in son modeli Google Gemini verileriyle mi eğitildi?

Uzmanlar, DeepSeek Yapay Zeka Modelinin Google’ın Gemini Verilerinden Eğitildiğine Dair İddiaları Araştırıyor

Yapay zeka uzmanları ve geliştiriciler, son olarak Çinli laboratuvar DeepSeek tarafından yayınlanan R1 akıl yürütme yapay zeka modelinin eğitim verilerinin bir kısmının Google’ın Gemini yapay zeka ailesinden geldiğine dair şüphelerini dile getiriyor.

Geçtiğimiz hafta piyasaya sürülen bu güncellenmiş model, matematik ve kodlama kriterlerinde oldukça yüksek performans sergiledi. Ancak modelin eğitiminde kullanılan veri kaynağı hakkında şirketten net bir açıklama gelmedi. Bazı yapay zeka araştırmacıları, verilerin en azından bir bölümünün Google’ın Gemini yapay zeka ailesine ait olabileceğini speküle ediyor.

Melbourne merkezli yapay zeka geliştiricisi Sam Paech, DeepSeek’in son modelinin Google’ın Gemini verilerinden eğitildiğini iddia ediyor. Paech, modelin tercih ettiği kelime ve ifadelerin, Gemini 2.5 Pro’nun benzer ifadelerine dayandığını belirtiyor.

Bu iddialar kesin bir kanıt niteliği taşımıyor olsa da SpeechMap adlı “duygusal zeka” değerlendirme aracını oluşturan bir başka geliştirici, DeepSeek modelinin “Gemini izleri gibi okunduğunu” ifade ediyor.

DeepSeek’in Geçmişteki Veri Kullanımı Tartışmaları

DeepSeek, daha önce de rakip yapay zeka modellerinden veri toplamakla suçlanmıştı. Geliştiriciler, V3 modelinin OpenAI’ın ChatGPT isimli sohbet botu platformu üzerinde eğitilmiş olabileceğini gözlemlemişti.

Aralık ayında, OpenAI ile ilişkilendirilen Microsoft, büyük miktarda verinin sızdırıldığını tespit etti ve bu verilerin DeepSeek ile ilişkilendirilmesi üzerine soruşturma başlatıldı. Bu durum, yapay zeka modellerinin eğitiminde “distilasyon” yönteminin kullanılmasıyla bağlantılıydı.

Buna rağmen, OpenAI’nin hizmet koşulları, müşterilerin rakip yapay zeka oluşturmak için şirketin model çıktılarını kullanmasını yasaklıyor.

Veri Kirliliği ve Yapay Zeka Şirketlerinden Alınan Önlemler

Yapay zeka şirketleri, artan veri kirliliği ve distilasyon yöntemi ile eğitim verilerine ulaşma sorunlarıyla mücadele etmek için güvenlik önlemlerini artırıyor.

OpenAI’nin belirli gelişmiş modellere erişimine kimlik doğrulama süreci koyarak güvenliği sağlamaya çalışması, yapay zeka alanında yeni bir dönemi başlatabilir. Aynı şekilde Google ve Anthropic gibi şirketler, model izlerini koruma altına almak için çeşitli önlemler almaya başladı.

Yapay zeka alanındaki gelişmeleri yakından takip etmeye devam edeceğiz. Haberimizi güncellemelerle sizlere aktarmaya devam edeceğiz.

Related Posts

Dronlar ve otonom araçlarla taşımacılıkta yeniçağ

Yüzyılın taşımacılık sektörü, dronlar ve otonom araçlarla köklü bir dönüşüm yaşadı. Lojistikten kentsel ulaşıma kadar geniş bir yelpazede kullanılan bu teknolojiler, verimliliği artırırken maliyetleri düşürüyor, güvenliği güçlendiriyor ve çevre dostu …

Avladığı hayvanın eti mavi çıktı: “O eti yemeyin!”

ABD’de eti mavi çıkan yaban domuzları, yetkilileri harekete geçirdi. Uzmanlar, “Eğer eti kestiğinizde dokusu mavi görünüyorsa, o eti yemeyin.” uyarısında bulundu.

Titanik kazasında kaç kişi kurtuldu? Sayılar neden halen net değil?

1912 yılında yaşanan Titanik kazası, aradan geçen onca zamana rağmen bazı temel sorulara kesin cevaplar verilememesiyle gündemdeki yerini koruyor. Örneğin, gemideki yolcu sayısı ve kurtulanların tam sayısı, farklı kaynaklarda neden halen küçük ama önemli farklılıklarla yer alıyor?

Erzurum’dan gökyüzü seyri

Bilim tutkunlarının sabırsızlıkla beklediği TÜBİTAK Gökyüzü Gözlem Etkinliği, bu yıl Türkiye’nin Erzurum Konaklı Kayak Merkezi’nde düzenleniyor. Şehir ışıklarından uzak, yüksek rakımlı ve doğayla iç içe bu özel mekânda gerçekleştirilecek etkinlik …

Rusya güvenlik gerekçesiyle Speedtest’i yasakladı

Rusya’da internet hızı ölçümü için kullanılan Speedtest uygulaması güvenlik tehdidi gerekçesiyle yasaklandı.

Hapishanede yazılımcı oldu: “Ne kadar kazandığını duyanların gözleri açılıyor”

ABD’de uyuşturucu satışından tutuklanan Preston Thorpe’un hayatı deneysel bir programla değişti.