Изкуственият интелект може да получава "халюцинации"

Видът на изкуствения интелект, за който говорим сега, понякога получава това, което ние хората наричаме халюцинации

Изкуственият интелект може да получава "халюцинации" | StandartNews.com

Чатботовете, базирани на алгоритми с изкуствен интелект, могат да представляват заплаха за потребителите поради своето несъвършенство - те имат нещо като "халюцинация", заяви старши вицепрезидентът на Google и ръководител на Google Search Прабхакар Рагаван в интервю за германския вестник Welt am Sonntag.

"Видът на изкуствения интелект, за който говорим сега, понякога получава това, което ние хората наричаме халюцинации. Това означава, че машината дава убедителен, но напълно измислен отговор", казва г-н Рагаван. Той добави, че една от основните цели а разработчиците е да се сведат до минимум подобни инциденти.

Google за първи път започна да губи в областта на технологиите за уеб търсене, след като Microsoft си осигури 10 милиарда долара подкрепа от OpenAI, която наскоро представи революционния проект ChatGPT. Моделът на езиковия изкуствен интелект отговаря на заявките по забележително човешки начин, като чатботът е бил поканен на интервю за работа и е написал дипломна работа.

Гигантът в търсенето наскоро представи своя чатбот Bard, който не успя да се въздържи от "халюцинации" дори в реклама - той даде очевидно неверен отговор на въпрос по астрономия. Това разгневи научната общност, а акциите на притежаваната от Google компания Alphabet спаднаха с цели 8%. "Ние, разбира се, осъзнаваме спешността на решаването на проблема, но чувстваме и голяма отговорност. И със сигурност не искаме да подвеждаме обществеността", добави ръководителят на Google Search.

Вижте всички актуални новини от Standartnews.com

Тагове:
Коментирай