Хващане на лошо съдържание в ерата на изкуствения интелект

Големите езикови модели все още се борят с контекста, което означава, че вероятно няма да могат да интерпретират нюанси в публикации и изображения така добре, както човешките модератори. Мащабируемостта и специфичността в различните култури също повдигат въпроси. “Публикувате ли един модел за определен тип ниша? Правите ли го по държави? Правите ли го по общности?… Това не е универсален проблем”, казва DiResta.
Нови инструменти за нови технологии
Дали генеративният AI ще стане по-вреден или по-полезен за онлайн информационната сфера, може да зависи до голяма степен от това дали технологичните компании могат да предложат добри, широко одобрени инструменти, за да разберат дали съдържанието се генерира от AI.
Това е доста техническо предизвикателство и DiResta ми казва, че откриването на синтетични медии вероятно ще бъде с висок приоритет. Това включва методи като цифрови водни знацикойто включва част от кода, който действа като вид постоянен маркер, който показва, че прикачената част от съдържанието е генерирана от изкуствен интелект. машинни инструменти За откриване на генерирани от AI или манипулирани публикации е привлекателно, защото, за разлика от водния знак, не изисква създателят на генерирано от AI съдържание проактивно да етикетира това съдържание като такова. Въпреки това, настоящите инструменти, които се опитват да направят това, не са особено добри в идентифицирането на машинно създадено съдържание.
Някои компании дори предложиха подписи за криптиране Математиката се използва за сигурно записване на информация, като например как е възникнало дадено съдържание, но това разчита на техники за доброволно разкриване, като например воден знак.
Последната версия на закона за изкуствения интелект на Европейския съюз, който беше предложен тази седмица, изисква от компаниите, които използват генеративен AI, да информират потребителите, когато съдържанието вече е генерирано автоматично. Вероятно ще чуем много за тези типове нововъзникващи инструменти през следващите месеци, тъй като търсенето на прозрачност около генерираното от AI съдържание се увеличава.
Какво друго чета
- Европейският съюз може да бъде включен Предстои забрана на лицевото разпознаване на обществени места, както и предсказуеми полицейски алгоритми. Ако бъде приета, тази забрана ще бъде голямо постижение за движението срещу разпознаването на лица, което губи сила в Съединените щати през последните месеци.
- Във вторник изпълнителният директор на OpenAI Сам Алтман каза, Той ще даде показания пред Конгреса на САЩ Като част от изслушване относно надзора на AI след двупартийна вечеря предишната вечер. Очаквам с нетърпение да видя колко добре владеят американските законодатели с изкуствения интелект и дали нещо конкретно ще излезе от срещата, но очакванията ми не са големи.
- Миналия уикенд китайската полиция Мъж арестуван за използване на ChatGPT Да разпространява фалшиви новини. Китай забрани ChatGPT през февруари като част от списък от по-строги закони относно използването на генериращ AI. Това изглежда е първият последващ арест.
Какво научих тази седмица
Дезинформацията е огромен проблем за обществото, но изглежда има по-малка аудитория, отколкото можете да си представите. Изследователи от Оксфордския интернет институт изследваха повече от 200 000 публикации в Telegram и установиха, че въпреки че дезинформацията се увеличава много, повечето потребители изглежда не продължават да я споделят.
в техните хартия, те заключават, че „противно на популярната мъдрост, аудиторията за дезинформация не е обща аудитория, а малка, активна общност от потребители“. Telegram е сравнително немодериран, но изследването предполага, че може да има някакъв органичен, управляван от търсенето ефект, който държи лошата информация под контрол.