Гугл, Мајкрософт, Опен Еј-Ај и Антропик формирали групу за регулацију развоја вештачке интелигенције
Четири најутицајније компаније у области вештачке интелигенције формирале су групу која ће на нивоу читаве индустрије надгледати сигуран развој најнапреднијих модела. Правила безбедног и одговорног развоја граничних модела вештачке интелигенције, у почетку, диктираће „Гугл“, „Мајкрософт“, „Опен Еј-Ај“ и „Антропик“.
Организацију "Frontier Model Forum" формирали су компанија „Опен Еј-Ај“ која стоји иза чет-бота ChatGPT, затим „Антропик“, „Мајкрософт“ и „Гугл“, власник компаније „Дип мајнд“ са седиштем у Великој Британији.
Представници ове групе кажу да ће фокус бити на „безбедном и одговорном“ развоју граничних модела вештачке интелигенције, мислећи притом на технологију засновану на вештачкој интелигенцији која је чак напреднија од алата који су тренутно доступни.
„Компаније које развијају технологију засновану на вештачкој интелигенцији одговорне су за стварање безбедног производа који мора остати под контролом човека“, рекао је Бред Смит, председник „Мајкрософта“.
Према његовим речима, ова иницијатива је кључни корак за зближавање технолошког сектора на пољу одговорног унапређења вештачке интелигенције и при суочавању са изазовима тако да цело човечанство од тог напретка има користи, а не штету.
Чланови форума наводе да су њихови главни циљеви промовисање истраживања безбедности вештачке интелигенције, као што је развој стандарда за процену модела; подстицање одговорне примене напредних модела заснованих на вештачкој интелигенцији; разматрање безбедносних ризика и поверења у вештачку интелигенцију са политичарима и стручњацима; подршка развоја позитивних употреба вештачке интелигенције као што је борба против климатске кризе и рано откривање рака.
Додали су да је чланство у групи отворено за организације које развијају граничне моделе, који су дефинисани као „велики модели машинског учења који превазилазе могућности које су тренутно присутне у најнапреднијим постојећим моделима, и могу да обављају широк спектар задатака“ .
Најава о оснивању ове групе стиже у тренутку када са се убрзава регулисање технологије.
У петак су технолошке компаније – укључујући чланице групе "Frontier Model Forum" – пристале на нове заштитне мере у вези са вештачком интелигенцијом после састанка са Џозефом Бајденом у Белој кући.
Обавезе усвојене на састанку укључују означавање садржаја који производе алати засновани на вештачкој интелигенцији, како би се олакшало уочавање обмањујућих материјала (попут такозваних deepfakes) и омогућавање независним стручњацима да тестирају моделе који користе ВИ.
Саопштење Беле куће наишло је на скептицизам од стране неких активиста који оцењују да је технолошка индустрија позната по непоштовања правила о саморегулацији.
Прошлонедељну најаву „Мете“ да ће објавити модел вештачке интелигенције један стручњак је описао као „давање људима шаблона за прављење нуклеарне бомбе“.
Група "Frontier Model Forum "истиче да су „важан допринос“ безбедности дала тела попут владе Уједињеног Краљевства, која је сазвала глобални самит о безбедности у области вештачке интелигенције, и ЕУ, која уводи закон о вештачкој интелигенцији који представља најозбиљнији законодавни покушај да се регулише технологија заснована на машинском учењу.
Упутство
Коментари који садрже вређање, непристојан говор, непроверене оптужбе, расну и националну мржњу као и нетолеранцију било какве врсте неће бити објављени. Говор мржње је забрањен на овом порталу. Коментари се морају односити на тему чланка. Предност ће имати коментари граматички и правописно исправно написани. Коментаре писане великим словима нећемо објављивати. Задржавамо право избора и краћења коментара који ће бити објављени. Коментаре који се односе на уређивачку политику можете послати на адресу webdesk@rts.rs. Поља обележена звездицом обавезно попуните.
Број коментара 0
Пошаљи коментар