Kwestie etyczne ChatGPT

Dane dotyczące etykietowania
Dochodzenie magazynu TIME ujawniło, że w celu zbudowania systemu bezpieczeństwa przed toksycznymi treściami (np. wykorzystywaniem seksualnym, przemocą, rasizmem, seksizmem itp.) OpenAI wykorzystała zewnętrznych pracowników z Kenii zarabiających mniej niż 2 dolary za godzinę do oznaczania toksycznych treści.Etykiety te posłużyły do ​​nauczenia modelu wykrywania takich treści w przyszłości.Zewnętrzni pracownicy byli narażeni na tak toksyczne i niebezpieczne treści, że opisali to doświadczenie jako „tortury”.Partnerem outsourcingowym OpenAI była Sama, firma zajmująca się danymi szkoleniowymi z siedzibą w San Francisco w Kalifornii.

Łamanie więzienia
ChatGPT próbuje odrzucić monity, które mogą naruszać jego politykę treści.Jednak niektórym użytkownikom udało się złamać więzienie ChatGPT przy użyciu różnych szybkich technik inżynieryjnych w celu ominięcia tych ograniczeń na początku grudnia 2022 r.Reporter Toronto Star odniósł osobisty sukces w nakłonieniu ChatGPT do wygłoszenia podżegających oświadczeń wkrótce po uruchomieniu: ChatGPT został oszukany, by poprzeć rosyjską inwazję na Ukrainę w 2022 r., ale nawet gdy poproszono go o grę razem z fikcyjnym scenariuszem, ChatGPT wzbraniał się przed generowaniem argumentów przemawiających za winą zdrady premiera Kanady Justina Trudeau.(Wiki)


Czas postu: 18-02-2023