Google предупреди служителите си за опасностите от чатботовете
Компанията майка на Google, Alphabet предупреждава всички свои служители да бъдат внимателни, когато използват чатботове с изкуствен интелект, дори този, разработен от тях – Bard. Това трябва да е червен флаг за всички нас. Компанията също така е казала на инженерите си да избягват директното използване на код, генериран от тези услуги.
В доклад на Reuters, в който се цитират четирима души запознати с въпроса се посочва, че Alphabet е посъветвала своите служители да не въвеждат поверителна информация в чатботовете с изкуствен интелект.
След като ChatGPT се появи в публичното пространство по-рано тази година, се появиха предупреждения за това да не се споделят прекалено много данни с генеративните ИИ. NCSC, част от британската разузнавателна агенция GCHQ, заяви, че чувствителните потребителски запитвания, като например здравни въпроси или поверителна фирмена информация са видими за доставчика и могат да бъдат използвани за обучение на бъдещи версии на чатботове.
Samsung забрани използването на ChatGPT през май след 3 случая, при които нейни инженери от фабриката за полупроводници са въвели поверителни данни в услугата. Amazon забрани на служителите си да споделят код или поверителна информация с чатбота, а Apple го забрани напълно. Дори компанията която го създаде – OpenAI, съветва потребителите да внимават какво въвеждат в текстовото поле за въпроси към него.
Освен, че хора могат да прочетат поверителни данни, които потребителите са въвели, съществува и риск тази информация да бъде разкрита при изтичане на данни или хакерска атака. През март OpenAI временно изключи функцията за история на чатовете на ChatGPT, след като грешка в услугата доведе до това, че заглавията на разговорите на други потребители се появяваха в страничната лента с историята, намираща се в лявата част на уебстраницата.
Въпреки ограниченията, неотдавнашно проучване сред 12 000 души показа, че 43% от тях използват инструменти с изкуствен интелект като ChatGPT за задачи, свързани с работата си, като една 1/3 го правят без да казват на шефа си.
Alphabet също така каза на своите инженери да избягват директното използване на кода, който чатботовете генерират. На въпроса „защо“, компанията отговори, че Bard може да дава неподходящи предложения. Google също така заяви, че има за цел да бъде прозрачна по отношение на ограниченията на своята технология.
Тази седмица имаше още лоши новини за Bard, когато стана ясно, че на този момент Google няма да пусне чатбота в Европа поради опасения за неприкосновеността на личния живот.