Skip links

Служители използват ИИ, за да автоматизират работата си по трениране на ИИ

Платформата Mechanical Turk на Amazon е стартирана през 2005 г. Тя позволява на хората да изкарат малко пари, изпълнявайки малки задачи като валидиране на данни и други подобни, които „изискват човешка интелигентност“.

Основната идея е „да се разбие ръчен и отнемащ време проект на по-малки, по-управляеми задачи, които да се изпълняват от разпределени работници по интернет“, по думите на Amazon. 

Не е изненадващо, че платформата вече се използва и за обучение на системи за изкуствен интелект.

С появата на мощните чатботове с изкуствен интелект обаче динамиката започна да се променя значително. Както съобщава TechCrunch, изследователи от École Polytechnique Fédérale de Lausanne (EPFL) в Швейцария са установили, че значителен брой работници в Mechanical Turk вече използват големи езикови модели (LLM), за да автоматизират труда си.

Един от ключовите ни източници на човешки данни вече не е напълно „човешки“! Изчислихме, че 33-46% от работещите в MTurk са използвали LLM в задача за създаване на текст – което може да се увеличи, тъй като ChatGPT и подобните на него стават все по-популярни и мощни.

Маноел Рибейро, съавтор на все още нерецензирана статия за изследването

С други думи, хората използват системи с изкуствен интелект, за да автоматизират елементарни задачи.

В доста случаи това означава, че хората използват модели на ИИ, за да обучават ИИ. Тъй като все повече от задачите са свързани именно с тренирането на такива системи.  

През последните няколко години системите за ИИ напреднаха бързо.

Мощни инструменти като ChatGPT на OpenAI и Bard на Google все повече размиват границите между хората и машините.

А работниците в Mechanical Turk на Amazon получават заплащане за всяка задача. Ако инструмент, задвижван от LLM, може да ускори изпълнението на тези задачи, е трудно да ги обвиним, че са избрали пътя на автоматизацията.

Особено като се има предвид, че няма голям надзор от страна на Amazon, както отбелязват от TechCrunch.

Според изследователите, има някои причини за безпокойство, тъй като става все по-трудно да се прави разлика между данните, генерирани от хора и изкуствен интелект.

LLM стават все по-популярни с всеки изминал ден, а мултимодалните модели, поддържащи не само въвеждане и извеждане на текст, но и на изображения и видео, са във възход. Поради това нашите резултати трябва да напомнят на платформите, изследователите и работещите да намерят нови начини да гарантират, че човешките данни остават човешки.


source

This website uses cookies to improve your web experience.
Начало