Skip links

OpenAI разбра как да се справи с лъжите на ChatGPT

OpenAI предизвика генеративния AI-бум миналата година, когато пусна ChatGPT – чатбот, който достигна 100 милиона месечни потребители за два месеца, поставяйки рекорд за най-бързо развиващо се приложение. В момента проблемът с дезинформирането на потребителите с изкуствен интелект стана остър и компанията предложи собствено решение за борба с това явление. Някои независими експерти изразиха скептицизъм относно ефективността на предложения метод.

Дезинформация или „халюцинации“ на ИИ възникват, когато моделите като ChatGPT или Google Bard напълно изфабрикуват информация, като се държат така, сякаш излагат факти. „Дори най-напредналите AI-модели са склонни да дават невярна информация. Те демонстрират склонност да измислят факти в моменти на несигурност“ – пишат изследователите на OpenAI в своя отчет. – “Тези халюцинации причиняват много проблеми в области, които изискват многоетапно разсъждение, тъй като една логическа грешка е достатъчна, за да провали много по-мащабно решение.

Новата анти-фантастична стратегия на OpenAI е да обучава AI-моделите да се възнаграждават за всяка една правилна стъпка на разсъждение, когато стигнат до отговор, вместо да се възнаграждават само при правилен окончателен извод. Изследователите нарекоха този подход „контрол на процеса“. Според тях, това може да доведе до създаването на по-логичен AI, тъй като тази стратегия насърчава модела да следва „веригата на мисълта“, която е подобна на човешката.

Откриването и смекчаването на логическите грешки на модела или халюцинациите е критична стъпка към създаването на съгласуван AGI [изкуствен интелект с общо предназначение]“ – каза Карл Кобе (Karl Cobbe), който е математик в OpenAI, отбелязвайки, че въпреки че компанията не е изобретила подхода, базиран на наблюдение на процеса, той ще помогне за по-нататъшното придвижване. Според Кобе, OpenAI е предоставил достъп до придружаващ набор от данни на 800 000 тага, които е използвал за обучението на специалния модел, споменат в изследователската работа.

Бен Уинтърс (Ben Winters), старши съветник на Информационния център по електронна конфиденциалност и ръководител на проекта за изкуствен интелект и човешки права, изрази своите резерви относно проучването, като каза, че би искал да изучи пълния набор от данни и придружаващите ги примери.Просто не мисля, че проучването само по себе си прави много за смекчаване на притесненията относно дезинформацията и подвеждащите резултати, когато AI действително се използва в реалния живот“ – каза Уинтърс.

Управляващият директор на Института AI Now Сара Майерс Уест (Sarah Myers West) каза, че OpenAI не предоставя ключови подробности относно използваните за обучението и тестването на GPT-4 данни. „Следователно все още има огромна липса на прозрачност, която възпрепятства всяко смислено усилие за осигуряване на отчетност на ИИ, дори когато тези системи вече засягат пряко хората“ – казва тя.


source

This website uses cookies to improve your web experience.
Начало