Фота Depositphotos.com

Штучны інтэлект прааналізаваў мільярды слоў з кніг, артыкулаў і вэб-сайтаў, у выніку чаго GPT-3 ведае каля 200 мільярдаў слоў. Навучанне машыны пісьму каштавала дзясяткі мільёнаў даляраў, піша The Nature.

GPT-3 з’яўляецца найбольш моцнай і дасканалай моўнай сістэмай штучнага інтэлекту. Чалавеку патрабуецца ўсяго толькі даць накірунак машыне — і яна сама напіша тэкст, які, па яе меркаванні, адпавядае гэтаму накірунку. Штучны інтэлект можа напісаць песню, апавяданне, артыкул, інтэрв’ю, эсэ, тэхнічныя інструкцыі і шмат іншага.

Каманда OpenAI паведамляе, што GPT-3 настолькі дасканалы, што людзям было складана адрозніць яго тэксты ад тэкстаў, напісаных чалавекам. Штучны інтэлект таксама можа даваць пісьмовыя адказы на пытанні, выпраўляць граматычныя памылкі, рашаць матэматычныя задачы і нават ствараць камп’ютарны код, калі карыстальнікі просяць яго выканаць задачу па праграмаванні. Папярэднія сістэмы штучнага інтэлекты таксама маглі выконваць гэтыя задачы, аднак толькі пасля адмысловай падрыхтоўкі сістэмы для кожнай асобнай задачы.

Падобныя моўныя сістэмы — гэта перш за ўсё бізнэс-прапановы для буйных тэхналагічных кампаній. Напрыклад, такія тэхналогіі выкарыстоўвае Google, каб палепшыць вынікі пошукавай сістэмы і якасць машыннага перакладу. У гэтых сістэмах зацікаўленыя таксама Facebook, Microsoft і Nvidia.

OpenAI таксама прапаноўвае GPT-3 як камерцыйную паслугу. Цяпер распрацоўшчыкі тэсціруюць здольнасць GPT-3 абагульваць юрыдычныя дакументы, адказваць на запыты карыстальнікаў, прапаноўваць камп’ютарны код і нават ідэнтыфікаваць эмацыйны стан людзей па іх паведамленнях.

Аднак, нягледзячы на сваю ўніверсальнасць, GPT-3 сутыкаецца з тымі ж праблемамі, з якімі сутыкаліся папярэднія праграмы для генерацыі тэксту. Штучны інтэлект часам дапускае недарэчныя памылкі, бо ён аналізуе статыстыку спалучэння слоў і словазлучэнняў, якія машына прачытала, але без разумення іх значэння.

І хоць даследчыкі працуюць над тым, каб моўныя сістэмы не рабілі сэнсавых памылак, навучыць штучны інтэлект будаваць прычынна-выніковыя сувязі ўсё яшчэ застаецца непераадольнай задачай.

Моўныя сістэмы штучнага інтэлекту ўяўляюць сабой нейронныя сеткі. Яны трэніруюцца спачатку шляхам падстаноўкі прапушчаных слоў у тэкст, што ўзмацняе сувязі паміж іх вылічальнымі элементамі, ці нейронамі. Чым больш узмацняюцца сувязі, тым меншай становіцца верагоднасць памылак. Такія мадэлі становяцца больш складанымі па меры развіцця вылічальных тэхналогій.

Памер нейроннай сеткі вызначае яе магчымасці. Чым больш нейронаў і больш сувязяў паміж імі, тым больш параметраў мае моўная сістэма. GPT-3 мае 175 мільярдаў нейронаў, што робіць яе найвялікшай нейроннай сеткай у свеце. Наступная па велічыні мае ўсяго толькі 17 мільярдаў вылічальных элементаў.

Такая колькасць нейронаў дапамагае сістэме распазнаваць граматыку, структуру і жанр таго, што трэба напісаць. Штучнаму інтэлекту можна даць прыклад задачы або задаць пытанне, а GPT-3 ужо самастойна працягне гэту тэму.

Пры гэтым сістэма адаптуе свой адказ да стылю і зместу таго тэксту, які ўводзіць карыстальнік. Гэта прыклад хуткага праграмавання, у выніку чаго атрымліваюцца адносна якасныя тэксты.

Адрозненне GPT-3 ад папярэдніх мадэляў у тым, што ён паспяхова спраўляецца з задачамі, да якіх штучны інтэлект не рыхтуюць загадзя. Справа ў тым, што сістэму вучылі вучыцца самастойна выконваць новыя для яе задачы. Менавіта таму тэхналогія вельмі гнуткая, каб прааналізаваць дадзены ёй кірунак і напісаць на гэтай аснове лагічны тэкст.

Хочаш падзяліцца важнай інфармацыяй ананімна і канфідэнцыйна?