Шефът на ChatGPT предупреждава да не се споделя информация с AI, призовава за регулации

В изненадващ ход главният изпълнителен директор на OpenAI Сам Алтман призова законодателите да регулират AI технологията, преди да е станало твърде късно.
Говорейки пред комисията по търговия, наука и транспорт на Сената в сряда, Алтман предупреди, че изкуственият интелект може да представлява сериозна заплаха за обществото, ако не се контролира правилно.
„Най-големият ми страх е, че причиняваме голяма вреда на света“, каза Алтман. „Мисля, че ако тази технология се обърка, тя може да се обърка напълно и искаме да сме откровени за това.“
Измина по-малко от година, откакто ChatGPT беше пуснат в света – и AI технологията може да направи много повече. От писане на реч и уроци до машинно обучение, той може да създава ново съдържание като музика и изкуство. Може също така да създава „дълбоко фалшиви“ видеоклипове и аудио.
Американският сенатор Ричард Блументал (D-CT), който председателства сенатската комисия, повтори коментарите на Алтман. Блументал каза, че е „много загрижен“ за потенциалните рискове от ИИ и се ангажира да работи с Алтман и други експерти за разработване на ефективни системи.
Блументал откри изслушването с помощта на приложение за глас и поздрав, генерирано от AI, което имитира гласа му въз основа на речи в Сената.
„Често сме виждали какво се случва, когато технологията заобикаля регулациите“, каза дълбокият фалшив глас, имитирайки този на Блументал. „Необузданата експлоатация на лични данни – разпространение на дезинформация и задълбочаване на обществените неравенства.“
След шоуто Блументал каза: „Ако слушахте от вкъщи, може би си помислихте, че гласът ми е мой глас, думите, които ми изпратихте. Но всъщност този глас не беше моят глас.“
Призивите за регулация идват в момент, когато технологията на ИИ напредва бързо. През последните години AI се използва за разработване на нови медицински лечения, създаване на самоуправляващи се автомобили и дори писане на поезия. Въпреки това, тъй като AI става по-мощен, технически експерти като Бъртън Келсо казват, че той може да стане опасен.
„Хората трябва да помнят, че това не е самоосъзнаваща се програма, която съхранява всичко в мозъка си“, каза Келсо. “Информацията за AI се съхранява на множество сървъри по целия свят. Така че нещото, за което ние като индивиди трябва да се тревожим, е да се уверим, че не поставяме лична информация в AI, защото във всеки един момент, или чрез хакване на веригата за доставки или просто хакнете с помощта на самия Open изкуствен интелект. Тази информация може да бъде изложена на тъмната мрежа.
Други опасения включват изкуственият интелект, който замества милиони работни места. Информацията може дори да бъде фалшифицирана за злонамерена печалба или използвана за изтриване на ключови моменти от историята. Една от най-големите тревоги обаче е справянето с националната сигурност.
„Като се има предвид, че ще имаме избори следващата година и тези модели се подобряват, мисля, че това е проблемна област“, каза Алтман.
Бързият напредък в AI технологията усложнява усилията тук и в чужбина за постигане на съгласие относно законите, управляващи нововъзникващите технологии. Китай вече е въвел регулации, които биха могли да оформят бъдещето.
„Голяма част от технологиите идват от Китай. И мисля, че (едно от нещата), които искаме да предотвратим като страна, е Китай да управлява всичко“, отбеляза той.
Дебатът относно регулирането на ИИ вероятно ще продължи още много години. Коментарите на Алтман обаче помогнаха да се повиши осведомеността за потенциалните опасности от тази мощна технология. Не е ясно кога и какви мерки ще бъдат приложени, за да се регулира ИИ и да се гарантира, че се използва за добро.
„Това е страхотно време за работа върху AI“, каза Алтман. „Но с напредването на тази технология разбираме, че хората се притесняват как може да промени начина, по който живеем.“
** Моля, абонирайте се CBN бюлетини и изтеглете файл Приложение за новини на CBN За да сте сигурни, че ще продължите да получавате най-новите новини. **