Google'dan akıl almaz hata. Yapay zeka sistemi taş yemeyi tavsiye etti

Google Al, toplu sonuçlar sunarken hatalı ve tehlikeli yanıtlar verdiği konusunda eleştiriliyor. Yapay zeka, sağlıklı gıdalar önerdikten sonra listeye "taş" yemeyi eklemesiyle dikkat çekti. Bu durum, yapay zekanın güvenilirliği ve doğruluğu konusunda endişeleri artırıyor.

Google Haberlere Abone ol
Google'dan akıl almaz hata. Yapay zeka sistemi taş yemeyi tavsiye etti

Yapay zeka tarafından toplu sonuçlar sunan Google Al hatalı ve tehlikeli yanıtlar veriyor.
 
Birçok sosyal medya kullanıcıları, Google destekli yapay zekanın bazı şüpheli yanıtlar verdiğini fark etti.

 Google'ın yapay zekası pizza tarifi için kullanıldı ancak verdiği tarifte öneri olarak sunduğu 'tutkal ekleyin' önerisi tartışma yarattı.

 Bir kullanıcının Google destekli yapay zeka asistanına sağlıklı atıştırmalıklar hakkında tavsiye sormasıyla başladı. Yapay zeka, çeşitli sağlıklı gıdalar önerdikten sonra, "taş" yemeyi de listeye ekledi. Bu durum, kullanıcının dikkatini çekti ve sosyal medyada paylaşıldı. Kısa sürede viral olan bu paylaşım, YZ sistemlerinin ilginç hatalar yapabileceğini gösterdi.

 Öte yandan yapay zeka Eski ABD Başkanı Barack Obama'nın Müslüman olduğunu iddia etti.

 

Kaynak: Medyatava Haber Merkezi
Etiketler google yapay zeka
Sıradaki Haber İçin Sürükleyin