Вече може да изключите отговорите си от обучението на изкуствения интелект

Опасността мегапопулярният ChatGPT да знае лични данни за вас е огромна, а ако случайно не сте попаднали в огромната му база данни, може просто да си измисли нещо. Заради свръхупотребата му рискът чатботът да бъде обучен да извлича данни от интернет и да си съчинява стана все по-очевиден.

Регулаторите на данни по целия свят разследват проблема с това как OpenAI, компанията зад ChatGPT, е събралa данните, с които е обучила чатбота. Проверяват се и точността на отговорите, които той предоставя на хората, както и други правни опасения. Стигна се дотам, че европейските регулатори обединиха усилията си и проучват OpenAI. Това стана, след като Италия временно забрани ChatGPT в страната. Канада също проучва потенциалните рискове.

В Европа GDPR изисква от компаниите да имат законови основания за обработка на личните данни и да позволяват на хората да имат достъп до събраната информация за тях. Те трябва да са информирани за това как тя се използва и да имат възможност да искат грешките да бъдат коригирани, а в някои случаи и изтривани.

Докато хората експериментираха с чатбота, задавайки му въпроси за техния живот и приятели, се появиха редица потенциални проблеми. OpenAI предупреждава, че ChatGPT може да предостави неточна информация и ползвателите на чата са открили, че най-безобидните неща, които той си измисля, са работа и хобита. Изкуственият интелект съчини фалшиви статии във вестници, които накараха дори предполагаемите автори да се зачудят дали са истински. Чатът генерира неверни твърдения, че професорът по право в университета “Джордж Вашингтон” в САЩ Джонатан Търли е участвал в сексуален тормоз. Кметът на Хепбърн Шир, град в Австралия, дори се готви да съди компанията зад чатбота, тъй като той твърдял, че Шир е бил замесен в скандал с подкуп. Когато екип на “24 часа” го интервюира, чатът заяви, че начело на България е кабинет с Кирил Петков, подкрепен от ГЕРБ, БСП и ДПС.

И докато проблемът с хората стана явен, се оказа, че и компаниите започнаха да проявяват загриженост за това как се използват данните им.

Samsung забрани на служителите да разчитат на изкустен интелект за генериране на текст отчасти поради опасения за това как данните се съхраняват на външни сървъри и риска фирмените тайни в крайна сметка да бъдат разкрити на други потребители. 

В отговор на проверката – особено от италианския регулатор на данни, OpenAI въведе инструменти, които позволяват на хората повече контрол върху поне част от техните данни.

ChatGPT създава своите отговори, които наподобяват чат, воден с човек, като предвижда кои думи е вероятно да последват други. За целта проверява милиони примери за изречения, написани от хора. OpenAI запазва мълчание за данните, с които е обучил езиковия модел, така че никой извън компанията не знае до точно колко от мрежата (включително личната информация на хората) използва.

OpenAI все пак казва, че неговите езикови модели са обучени от три източника на информация: данни, взети от мрежата, данни, които компанията лицензира от други фирми, и информацията, която хората подават чрез чатовете с езиковия модел. Това може да включва информация за физически лица. “Голямо количество данни в интернет се отнасят за хора, така че нашата информация за обучение включва лична информация”, обясняват от OpenAI в публикация, заявявайки, че предприемат стъпки за намаляване на количеството.

OpenAI вече въведе и формуляр за искане за премахване на лични данни, който позволява на хората - предимно в Европа, но също и в Япония - да поискат информацията за тях да бъде махната.  Той, изглежда, е предимно за молби данните да не се появяват в отговорите, които ChatGPT предоставя на потребителите, а не от базата данни, които OpenAI използва за обучение. Формулярът ви моли да предоставите своето име, електронна поща, страната, в която се намирате, дали подавате молбата за себе си, или от името на някой друг (например адвокат), както и дали сте публична личност.

След това OpenAI иска доказателства, че чатботът ви е споменал. Той ви моли да предоставите въпросите, които са довели до споменаването ви, както и  да дадете скрийншотове на всички отгвори, в които сте се появили. “За да можем да отговорим правилно на вашите искания, ние се нуждаем от ясни доказателства”, се казва във формуляра. Той изисква от вас да потвърдите, че предоставяте коректни данни и че разбирате, че OpenAI може не във всички случаи да изтрие информацията. Компанията казва, че ще балансира “поверителност и свободно изразяване”, когато взема решения относно исканията на хората за изтриване.

Даниел Лойфър, старши политически анализатор в организацията с нестопанска цел за цифрови права Access Now, казва, че промените, които OpenAI въведе през последните седмици, са добри, но че засягат само върха на айсберга. “Те все още не са направили нищо, за да се справят с по-сложния, системен проблем за това как данните на хората са били използвани за обучение на тези модели и очаквам, че това не е проблем, който просто ще изчезне, особено със създаването на работна група”, казва Леуфер, имайки предвид европейските регулатори, които се събират, за да разгледат OpenAI.

Как да изтриете данните си

“Хората имат право на достъп, коригиране, ограничаване, изтриване или прехвърляне на своята лична информация, която може да бъде включена в нашата информация за обучение”, пише в страницата на помощния център на OpenAI. За да направите това, оттам препоръчват да изпратите имейл на dsar@openai. com. Тези, които вече са поискали изтриване на данните си от OpenAI, не са били впечатлени от отговорите му. А италианският регулатор на данни казва, че компанията твърди, че сега е “технически невъзможно” да коригира неточностите.

Трябва да внимавате какво казвате на ChatGPT, особено предвид ограничените опции за изтриване на данни на OpenAI. Разговорите, които водите с чатбота,, могат по подразбиране да се използват от OpenAI в бъдещите му големи езикови модели като данни за обучение.

Това означава, че информацията може, поне теоретично, да бъде възпроизведена в отговор на бъдещи въпроси на хората. На 25 април компанията въведе нова настройка, за да позволи на всеки да спре този процес независимо къде по света се намира.

Когато влезете в ChatGPT, щракнете върху своя потребителски профил в долния ляв ъгъл на екрана, след това върху “Настройки” и накрая върху “Контроли за данни”. Там можете да изключите “История на чата и обучение”. OpenAI казва, че изключването на историята на разговорите ви означава, че данните, които въвеждате в разговорите, “няма да се използват за обучение и подобряване на нашите модели”.