Ръководителят на ChatGPT казва, че AI трябва да се регулира от американска или глобална агенция

Ръководителят на компанията за изкуствен интелект, която произвежда ChatGPT, каза пред Конгреса във вторник, че правителствената намеса ще бъде от решаващо значение за смекчаване на рисковете от все по-мощните AI системи.
“С напредването на тази технология осъзнаваме, че хората се притесняват как може да промени начина, по който живеем. Ние също”, каза главният изпълнителен директор на OpenAI Сам Алтман на изслушване в Сената.
Алтман предложи да се сформира американска или международна агенция, която да лицензира най-мощните AI системи и да има правомощието да „отнеме такова разрешение и да гарантира спазването на стандартите за безопасност“.
Неговият базиран в Сан Франциско стартъп привлече общественото внимание, след като стартира ChatGPT в края на миналата година. Безплатният чатбот отговаря на въпроси с убедителни човешки отговори.
Това, което започна като паника сред преподавателите относно използването на ChatGPT за измама при домашни задачи, се разшири до по-широки опасения относно способността на най-новия набор от „генеративни AI“ инструменти да Подвеждане на хората и разпространение на лъжиИ нарушават защитата на авторските права И Някои работни места се провалиха.
И въпреки че няма индикации, че Конгресът ще създаде нови всеобхватни правила за ИИ, Същото правят и европейските законодателиОбществените опасения накараха Altman et al Технически изпълнителни директори в Белия дом По-рано този месец това накара американските агенции да обещаят това вредно потискане Продукти с изкуствен интелект, които нарушават съществуващите граждански права и закони за защита на потребителите.
Сенатор Ричард Блументал, демократът от Кънектикът, който председателства подкомисията по неприкосновеност на личния живот, технологии и право на съдебната комисия на Сената, откри сесията със записана реч, която звучеше като тази на сенатора, но всъщност беше аудио възпроизвеждане на изказванията на Блументал и изнесено от ChatGPT – писмени встъпителни бележки.
Резултатът беше забележителен, каза Блументал, но добави: „Ами ако поисках и какво, ако дам одобрение за капитулацията на Украйна или за лидерството на (руския президент) Владимир Путин?“
Общият тон на разпитите на сенаторите беше учтив във вторник, за разлика от предишни изслушвания в Конгреса, в които мениджърите на технологиите и социалните медии бяха изправени пред остри критики за неуспехите на индустрията при управление на поверителността на данните или противодействие на вредната дезинформация. Отчасти това е така, защото и демократите, и републиканците казаха, че се интересуват от опита на Алтман за предотвратяване на проблеми, които все още не са се случили.
Блументал каза, че компаниите с ИИ трябва да бъдат задължени да тестват системите си и да откриват известни рискове, преди да стартират, и той изрази собствената си загриженост за това как бъдещите системи с ИИ могат да дестабилизират пазара на труда. Алтман беше до голяма степен съгласен, въпреки че беше по-оптимистично настроен за бъдещето на бизнеса.
Притиснат от най-лошите си страхове относно изкуствения интелект, Алтман почти избягваше подробностите, освен да каже, че индустрията може да причини „голяма вреда на света“ и че „ако тази технология стане лоша, може просто да стане още по-лоша“.
Но по-късно той предложи нова регулаторна агенция да наложи предпазни мерки, които да блокират AI модели, които могат да се „самовъзпроизвеждат и самоизплъзват в дивата природа“ – намеквайки за бъдещи опасения относно усъвършенствани AI системи, които биха могли да манипулират хората да отстъпят контрол.
Фокусирането върху пресилен „научнофантастичен троп“ на свръхмощен AI може да затрудни предприемането на действия срещу вече съществуващи вреди, които ще изискват от регулаторите да се задълбочат в прозрачността на данните, дискриминационното поведение и потенциала за измама и дезинформация, бившият казах. Служителят на администрацията на Байдън, който е съавтор на нейния план за Законът за правата на Amnesty International.
каза Суреш Венкатасубраманиан, компютърен учен от университета Браун, който беше помощник-директор по наука и правосъдие в Службата за политика в областта на науката и технологиите на Белия дом. „Този страх, който е напълно неоснователен, отвлича вниманието от всички страхове, с които сега се занимаваме.“
OpenAI изразява тези екзистенциални опасения от самото си създаване. Съоснован от Алтман през 2015 г. с подкрепата на технологичния милиардер Илон Мъск, стартъпът еволюира от изследователска лаборатория с нестопанска цел с мисия, фокусирана върху безопасността, в корпорация. Сред другите популярни продукти, базирани на AI, е DALL-E Image Maker. Microsoft е инвестирала милиарди долари в стартъпа и е интегрирала технологията си в собствените си продукти, вкл Търсачката му е Bing.
Altman също така планира да започне световно турне този месец до национални столици и големи градове на шест континента, за да говори за технологии с политиците и обществеността. В навечерието на свидетелските си показания в Сената той вечеря с десетки американски законодатели, много от които каза той пред CNBC Те бяха трогнати от коментарите му.
Свидетелстваха също Кристина Монтгомъри, главен служител по поверителност и доверие в IBM, и Гари Маркъс, почетен професор в Нюйоркския университет, който беше сред група експерти по ИИ, които OpenAI и други технологични компании призоваха за пауза в развитието му По-стабилни AI модели за шест месеца, за да дадат на общността повече време Помислете за рисковете. Съобщението беше в отговор на пускането на OpenAI през март Най-новият модел GPT-4описан като по-мощен от ChatGPT.
Сенатор Джош Хоули от Мисури, републиканецът в комисията, каза, че технологията има значителни последици за изборите, работните места и националната сигурност. Той каза, че изслушването във вторник е „първа решаваща стъпка към разбирането какво трябва да направи Конгресът“.
Редица лидери в технологичната индустрия казаха, че приветстват някаква форма на надзор върху AI, но са предпазливи към това, което смятат за прекалено сложни правила. Алтман и Маркъс се застъпват за фокусиран върху ИИ, за предпочитане международен регулатор, като Алтман цитира прецедента на ядрената агенция на ООН, а Маркъс я сравнява с Администрацията по храните и лекарствата на САЩ. Но Монтгомъри от IBM вместо това поиска от Конгреса да възприеме подход на „внимателно регулиране“.
„Смятаме, че изкуственият интелект трябва да се регулира основно в точката на опасност“, каза Монтгомъри, като определя правила, които управляват внедряването на специфични употреби на изкуствен интелект, а не самата технология.