Каліфорнія ухвалює суперечливий законопроект щодо навчання моделей штучного інтелекту

Поки світ дебатує, що правильно, а що неправильно щодо генеративного ШІ, Ассамблея та Сенат штату Каліфорнія щойно прийняли законопроект Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (SB 1047), який є одним із перших значущих регулювань для ШІ в Сполучених Штатах.

Каліфорнія хоче регулювати штучний інтелект новим законопроєктом

Законопроект, який було проголосовано в четвер (через The Verge), став предметом дискусій у Силіконовій долині, оскільки він фактично зобов'язує компанії, що працюють з ШІ в Каліфорнії, впроваджувати серію запобіжних заходів перед навчанням «софістикованої базової моделі».

З новим законом розробники повинні будуть забезпечити можливість швидко і повністю зупинити модель ШІ, якщо вона виявиться небезпечною. Також необхідно буде захистити мовні моделі від «небезпечних посттренувальних модифікацій» або будь-чого, що може спричинити «критичну шкоду». Сенатори описують законопроєкт як «запобіжні заходи для захисту суспільства» від неправильного використання ШІ.

Професор Хінтон, колишній керівник відділу штучного інтелекту в Google, похвалив законопроєкт за те, що він враховує дуже реальні ризики від потужних систем штучного інтелекту і пропонує ставитися до них надзвичайно серйозно.

Однак компанії, такі як OpenAI, та навіть невеликі розробники критикували законопроєкт про безпеку ШІ, оскільки він встановлює потенційні кримінальні покарання для тих, хто не дотримуватиметься вимог. Деякі стверджують, що цей законопроєкт нашкодить інді-розробникам, які будуть змушені наймати юристів і вирішувати бюрократичні питання при роботі з моделями ШІ.

Губернатор Ґевін Ньюсом має до кінця вересня, щоб вирішити, чи затвердити законопроєкт, чи накласти на нього вето.

Apple та інші компанії зобов'язуються дотримуватися правил безпеки ШІ

Раніше цього року Apple та інші технологічні компанії, такі як Amazon, Google, Meta та OpenAI, погодилися з набором добровільних правил безпеки штучного інтелекту, встановлених адміністрацією Байдена. Ці правила визначають зобов'язання тестувати поведінку систем ШІ, щоб забезпечити ненаявність дискримінаційних тенденцій та проблем із безпекою.

Результати проведених тестів мають бути спільними з урядами та науковими установами для рецензування. Принаймні, наразі рекомендації Білого дому щодо штучного інтелекту не є обов'язковими за законом.

Зрозуміло, що компанія Apple має значний інтерес до таких регулювань, оскільки вона працює над функціями Apple Intelligence, які будуть випущені для громадськості пізніше цього року з iOS 18.1 та macOS Sequoia 15.1.

Джерело: 9to5mac.com

Роман Мельник

Роман має пристрасть до технологій та інновацій. Він завжди в курсі останніх новин у сфері IT та постійно вивчає нові технології. Роман любить ділитися своїми знаннями та досвідом з іншими через статті та огляди. У вільний час він займається програмуванням та тестуванням нових гаджетів.

Роман Мельник
Редактор

Поки немає коментарів…

avatar