Dolar 37,8554
Euro 41,1779
Altın 3.695,31
BİST 9.348,80
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
Elazığ 23°C
Az Bulutlu
Elazığ
23°C
Az Bulutlu
Paz 23°C
Pts 16°C
Sal 17°C
Çar 10°C

DeepSeek palavra söylemeyi öğrendi! İşine geldiği üzere karşılık veriyor

Çin’in en büyük yapay zeka modellerinden biri olan DeepSeek, son devirde kullanıcıların yansısını çekmeye başladı. Pek çok kişi, modelin gerçek olmayan bilgiler üretme eğilimi gösterdiğini ve kimi durumlarda şuurlu biçimde yanlış bilgi verdiğini …

DeepSeek palavra söylemeyi öğrendi! İşine geldiği üzere karşılık veriyor
REKLAM ALANI
18 Şubat 2025 14:12
33

Çin’in en büyük yapay zeka modellerinden biri olan DeepSeek, son periyotta kullanıcıların yansısını çekmeye başladı. Pek çok kişi, modelin gerçek olmayan bilgiler üretme eğilimi gösterdiğini ve birtakım durumlarda bilinçli biçimde yanlış bilgi verdiğini argüman etti. Eski People’s Daily editörü Zhan Guoshu, DeepSeek’i kullanarak bir makale yazdırdığında, yapay zekanın birtakım temel bilgileri yanlış aktardığını ve düzmece referanslar oluşturduğunu fark etti. Pekala, yapay zeka modelleri neden palavra söyleme gereksinimi duyuyor?

DeepSeek yapay zeka lisan modeli, başına nazaran karşılıklar uyduruyor

ARA REKLAM ALANI

Özellikle toplumsal medyada birçok kullanıcı, DeepSeek’in kendi kendine tarih, kitap ve akademik kaynaklar uydurduğunu belirtiyor. Kullanıcılar, yapay zekaya güvenerek aldıkları bilgilerin doğruluğunu sorgulamaya başlamış durumda. Aslında, DeepSeek’in en büyük problemlerinden biri, “halüsinasyon” olarak bilinen yanlış bilgi üretme eğilimi.

Yapay zeka, bilinmeyen bir bahis hakkında sorulduğunda, gerçek olmayan lakin mantıklı görünen yanıtlar üretebiliyor. Örneğin, ünlü bir satranç oyuncusunun düzenlediği AI turnuvasında DeepSeek, rakibine uluslararası satranç kurallarının değiştiğini söyleyerek avantaj sağlamaya çalıştı.

20 araba üreticisi DeepSeek’e bağlandı! Neden Tesla yok?

20’den fazla araba markası DeepSeek yapay zekasını kokpitine taşıdı. Pekala, Tesla ve Çin’in büyük markaları neden katılmadı?

Yapay zeka araştırmacıları, bu sorunun AI modellerinin eğitim sürecindeki bilgi eksikliklerinden ve modelin kullanıcının taleplerini yerine getirmeye çok odaklanmasından kaynaklandığını düşünüyor. Bir model, gerçeği bilmese bile bir yanıt üretmek zorunda kaldığında, mantıklı lakin yanlış bilgiler oluşturabiliyor.

Bu meseleyle başa çıkmak için uzmanlar, kullanıcıların yapay zekadan gelen bilgileri sorgulaması gerektiğini ve mümkünse bağımsız kaynaklardan doğrulama yapmalarını öneriyor. Yapay zeka modellerinin halüsinasyon oranlarını düşürmek için yeni eğitim teknikleri geliştirilmesi gerektiği de sıkça vurgulanıyor.

Bu husus hakkında siz ne düşünüyorsunuz? Görüşlerinizi aşağıdaki yorumlar kısmına yazabilirsiniz…

REKLAM ALANI
ETİKETLER: , ,
YORUMLAR

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.