Падпісанне «Рымскага закліку да этыкі штучнага інтэлекту» адбылося ў межах асамблеі Папскай акадэміі жыцця, якая прайшла з 26 па 28 лютага на тэму штучнага інтэлекту.
Як паведамляе Каталіцкае агенцтва навінаў CNA, заклік да этычнага і адказнага выкарыстання тэхналогій штучнага інтэлекту падпісала ў пятніцу Папская акадэмія жыцця разам з прэзідэнтамі IBM и Microsoft.
Згодна з дакументам, «аўтары закліку выказваюць жаданне працаваць супольна ў гэтым кантэксце, на нацыянальным і міжнародным узроўнях, дзеля папулярызацыі „алгарэтыкі“». «Алгарэтыка», згодна з тэкстам, уяўляе сабой этычнае выкарыстанне штучнага інтэлекту ў адпаведнасці з прынцыпамі празрыстасці, інклюзіўнасці, адказнасці, бесстароннасці, надзейнасці, бяспекі і недатыкальнасці прыватнага жыцця.
Адна з частак асамблеі была прысвечана закрытым сустрэчам акадэмікаў Папскай акадэміі жыцця, другая — семінару на тэму штучнага інтэлекту і этыкі, у якім удзельнічалі 356 чалавек з 41 краіны.
28 лютага адбылося грамадскае мерапрыемства «За гуманны штучны інтэлект», якое ўключала ў сябе падпісанне дакумента аб штучным інтэлекце прэзідэнтам Microsoft Брэдам Смітам і выканаўчым віцэ-прэзідэнтам IBM Джонам Кэллі.
Папа Францішак не змог прысутнічаць на мерапрыемстве з-за дрэннага самаадчування. Яго выступленне зачытаў прэзідэнт Акадэміі жыцця арцыбіскуп Вінчэнцо Палья.
У сваім слове Папа сказаў, што мэтай этычнага развіцця алгарытмаў з’яўляецца перагляд «працэсаў, з дапамогай якіх мы інтэгруем адносіны паміж людзьмі і сучаснымі тэхналогіямі». Ён дадаў, што сацыяльнае вучэнне Касцёла пра годнасць асобы, справядлівасць, субсідыярнасць і салідарнасць з’яўляецца важнейшым унёскам у дасягненне гэтых мэтаў.
На думку Папы, навучання недастаткова, а новыя тэхналогіі не з’яўляюцца «нейтральнымі» ў якасці сродкаў і інструментаў. Па яго словах, «складанасць тэхнічнага свету патрабуе ад нас усё больш дакладных этычных рамак, каб зрабіць гэты абавязак па-сапраўднаму эфектыўным».
Рымскі заклік да «этычнага выкарыстання штучнага інтэлекту» стаў «крокам наперад» у пошуку агульнага разумення, мовы і рашэнняў.
У тэксце цытуецца Усеагульная дэкларацыя правоў чалавека, дзе ўказваецца на аднолькавую годнасць і правы ўсіх людзей, якія штучны інтэлект павінен абараняць і гарантаваць, у роўнай ступені «на карысць чалавецтва і навакольнага асяроддзя».
Гаворыцца таксама пра тры патрабаванні да «тэхнічнага прагрэсу, які павінен ісці ў адным рэчышчы з сапраўдным прагрэсам чалавецтва і павагай да планеты»: ён павінен быць усеабдымным, у яго аснове павінна быць дабро чалавецтва, а клопат пра планету павінен мець у вышэйшай ступені ўстойлівы характар.
У дакуменце прыводзіцца шэраг канкрэтных рэкамендацый. Між іншым, людзі павінны ўсведамляць, што калі яны ўзаемадзейнічаюць з машынай, то тэхналогія, заснаваная на выкарыстанні штучнага інтэлекту, павінна выкарыстоўвацца для пашырэння правоў і магчымасцяў, а не для эксплуатацыі, і што штучны інтэлект трэба выкарыстоўваць для абароны планеты. Таксама рэкамендуецца «падтрымліваць новыя формы рэгулявання ў мэтах садзейнічання транспарэнтнасці і захавання этычных прынцыпаў», асабліва ў выпадку распазнавання асобаў.
Адзначаецца, што развіццё штучнага інтэлекту «павінна ісці поруч з надзейнымі мерамі па забеспячэнні лічбавай бяспекі».
Дакумент пералічвае наступныя прынцыпы:
- празрыстасць: усе сістэмы штучнага інтэлекту павінны быць даступнымі для разумення;
- інклюзіўнасць: неабходна ўлічваць патрэбы ўсіх людзей, каб кожны мог атрымаць карысць. Усім людзям неабходна прапаноўваць найлепшыя ўмовы для самавыражэння і развіцця;
- адказнасць: усе, хто распрацоўвае і рэалізуе выкарыстанне штучнага інтэлекту, павінны дзейнічаць адказна і празрыста;
- бесстароннасць: пры распрацоўцы штучнага інтэлекту дзейнічаць непрадузята, каб гарантаваць справядлівасць і захаванне чалавечай годнасці;
- надзейнасць: сістэмы штучнага інтэлекту павінны быць у стане працаваць надзейна;
- бяспека і канфідэнцыйнасць: сістэмы штучнага інтэлекту павінны працаваць бяспечна і паважаць канфідэнцыйнасць асабістых дадзеных карыстальнікаў.
Падкрэсліваецца, што гэтыя прынцыпы не што іншае, як фундаментальныя элементы «карысных інавацый».
У дакуменце ўзгадваецца пра інклюзіўную адукацыю і гучыць заклік да «перапрацоўкі» школьных праграм, «каб дэвіз адукацыі „ніхто не застаўся з боку“ стаў рэальнасцю».
Дадаецца, што сацыяльнае і этычнае ўздзеянне штучнага інтэлекту таксама павінна ляжаць у аснове адукацыі ў сферы штучнага інтэлекту.
Нядаўна педыятрычны шпіталь Bambino Gesu ў Рыме, які належыць Святому Пасаду, абвясціў аб супрацоўніцтве з кампаніяй IBM з мэтай распрацоўкі, з выкарыстаннем штучнага інтэлекту, базы клінічнай, лабараторнай і ананімізаванай візуальнай інфармацыі для паляпшэння даследванняў у галіне дзіцячай медыцыны, асабліва ў сферы пухлін галаўнога мозгу і рэдкіх захворванняў.
Адным з удзельнікаў семінару па штучным інтэлекце 26 лютага была Сандра Аляксандэр, каталічка і прафесар этыкі ў Амерыканскім універсітэце ў Дубаі. Яна выступіла з дакладам, у якім зазначыла, што этыка ў стагоддзе штучнага інтэлекту павінна аддаваць прыярытэт чалавечай годнасці, сувязям супольнасці і ролі праўды. Яна назвала гэтую прапанову па навучанні этыкі штучнага інтэлекту адукацыйнай біяграфіяй, якая, па яе словах, можа быць лёгка выкарыстана ў шматкультурных кантэкстах.
Сыходзячы са свайго досведу навучання ў апошнія 11 гадоў у Аб’яднаных Арабскіх Эміратах, у асноўным студэнтаў-мусульманаў, яна сказала, што існуе шмат агульнага ў веры ў прынцыпы чалавечай годнасці і агульнасці.
«У сваім выкладанні я прыходжу да іх з каталіцкага пункту гледжання, але гэта, як мне здаецца, агульная маральная лексіка сярод многіх рэлігійных традыцый, і мы павінны гэта пацвердзіць і паўтарыць», — сказала Сандра Аляксандэр у інтэрв’ю CNA.
Яна параіла католікам падыходзіць да штучнага інтэлекту з асцярожнасцю, але і з надзеяй. «У абарону чалавечай асобы мы павінны з асцярожнасцю ставіцца да гэтых тэхналогій», — адзначыла прафесар.
Існуюць тэхналогіі, якія аказваюць дапамогу тым, хто мае ў ёй патрэбу, і «мы павінны быць адкрытыя для іх», дадала яна, але падкрэсліла, што лепш быць скептыкам і пачакаць, пакуль даследванні пакажуць, ці не прыводзяць новыя тэхналогіі да негатыўных наступстваў, якія пераважаюць праблемы, для вырашэння якіх яны былі распрацаваны.