23 асіламарскія прынцыпы для штучнага інтэлекту

23 асіламарскія прынцыпы для штучнага інтэлекту (англ.: 23 Asilomar AI Principles) або 23 законы Асіламара — пералік этычных норм і правіл, якіх у сваёй працы павінны трымацца навукоўцы і спецыялісты, што займаюцца распрацоўкамі звязанымі са штучным інтэлектам. Нормы распрацаваны міжнароднай супольнасцю падчас мерапрыемства Asilomar Conference on Beneficial AI[en][1], праведзенага 5-8 студзеня 2017 года ў Канферэнц-цэнтры, размешчаным на тэрыторыі дзяржаўнага парка Асіламар горада Пасіфік-Гроў[en] у штаце Каліфорнія, ЗША. Арганізатарам канферэнцыі быў Інстытут будучыні[en]. У закрытай канферэнцыі ўдзельнічала каля 1000 даследчыкаў у галіне штучнага інтэлекту і робататэхнікі і каля 1500 экспертаў з іншых сфер, уключаючы бізнесмэна Ілана Маска і фізіка Стывена Хокінга.

Канферэнцыя доўжылася 3 дні, а сама дыскусія прайшла ў два этапы. На першым этапе групы спецыялістаў у рамках секцыйных пасяджэнняў абмеркавалі розныя аспекты, звязаныя з магчымым з’яўленнем штучнага розуму, у тым ліку такія важныя тэмы, як аўтаномнае выкарыстанне гэтых сістэм, іх уплыў на рынак працы, доступ да адпаведных тэхналогій і іншыя. На другім этапе ў працэсе агульнай дыскусіі кожны ўдзельнік канферэнцыі атрымаў магчымасць унесці свае заўвагі, дапаўненні і каментарыі ва ўсе фармулёўкі, выпрацаваныя асобнымі групамі на першым этапе. У выніковы пералік-справаздачу трапілі палажэнні, якія набралі 90 % падтрымкі ўсіх удзельнікаў канферэнцыі. Тэкст быў зацверджаны і надрукаваны пад назвай 23 асіламарскія прынцыпы для штучнага інтэлекту[2].

Прынцыпы працы са штучным інтэлектам, зацверджаныя на Асіламарскай канферэнцыі

правіць
  1. Мэта даследавання: мэта даследаванняў штучнага інтэлекту павінна ляжаць у галіне стварэння не бязмэтнага розуму, а сістэм, накіраваных на прынясенне карысці чалавецтву
  2. Фінансаванне даследаванняў: інвестыцыі ў штучны інтэлект павінны суправаджацца субсідыяваннем даследаванняў, накіраваных на пошук спосабаў прымянення штучнага інтэлекту, у кантэксце якіх разглядаюцца пытанні на перакрыжаванні камп’ютарных навук, эканомікі, юрыспрудэнцыі, этыкі і сацыяльных навук. Прыклады такіх пытанняў: Як забяспечыць надзейнасць будучыні штучнага інтэлекту такім чынам, каб сістэмы выконвалі сваю праграму, не падвяргаючыся пагрозе збояў і хакерскіх нападаў? Як павысіць узровень дабрабыту з дапамогай аўтаматызацыі працэсаў, не скараціўшы пры гэтым колькасць магчымасцей для чалавечай працы і захаваўшы яе прызначэнне? Як, зрабіўшы прававую сістэму больш эфектыўнай і справядлівай, мадыфікаваць яе ў адпаведнасці з развіццём штучнага інтэлекту і ўлічыць усе прававыя рызыкі, звязаныя з яго выкарыстаннем? Якія каштоўнасныя арыенціры павінны ляжаць у аснове штучнага інтэлекту і якім прававым і маральным статусам ён павінен валодаць?
  3. Дыялог навукоўцаў і палітычных дзеячаў: неабходны канструктыўны і здаровы дыялог паміж даследчыкамі штучнага інтэлекту і палітычным кіраўніцтвам.
  4. Культура зносін у супольнасці даследчыкаў: сярод даследчыкаў і распрацоўшчыкаў сістэм штучнага інтэлекту павінна заахвочвацца культура ўзаемадапамогі, даверу і адкрытасці.
  5. Адсутнасць канкурэнцыі: каманды распрацоўшчыкаў штучнага інтэлекту павінны актыўна ўзаемадзейнічаць адзін з адным, каб пазбегнуць парушэння ці неналежнага выканання стандартаў бяспекі
  6. Бяспека: сістэмы штучнага інтэлекту павінны быць бяспечныя і абароненыя на працягу ўсяго тэрміну эксплуатацыі, а ў сітуацыях, дзе гэта мэтазгодна, планавая праца штучнага інтэлекту павінна лёгка правярацца
  7. Адкрытасць інфармацыі пра збоі ў сістэме: калі сістэма штучнага інтэлекту прычыняе шкоду, павінна быць магчымасць высветліць прычыну
  8. Адкрытасць сістэмы правасуддзя: любы ўдзел аўтаномнай сістэмы штучнага інтэлекту ў прыняцці судовага рашэння павінен быць здавальняючым чынам абгрунтаваны і даступны для праверкі кампетэнтнымі органамі
  9. Адказнасць: распрацоўшчыкі і стваральнікі прасунутых сістэм штучнага інтэлекту зацікаўлены ў маральным баку наступстваў выкарыстання, злоўжыванні і дзеяннях штучнага інтэлекту, і менавіта на іх плячах ляжыць адказнасць за ўзнікненне падобных наступстваў.
  10. Узгадненне агульных каштоўнасцяў: сістэмы штучнага інтэлекту з высокай ступенню аўтаномнасці павінны быць распрацаваны такім чынам, каб іх мэты і паводзіны былі ўзгоднены з чалавечымі каштоўнасцямі на ўсім працягу працы
  11. Чалавечыя каштоўнасці: будова і функцыянаванне сістэм штучнага інтэлекту павінна быць узгоднена з ідэаламі чалавечай годнасці, правоў, свабод і культурнай разнастайнасці
  12. Абарона асабістых даных: людзі павінны мець права на доступ да персанальных даных, іх апрацоўку і кантроль, пры наяўнасці ў сістэм штучнага інтэлекту магчымасці аналізу і выкарыстання гэтых даных
  13. Свабода і канфідэнцыяльнасць: прымяненне сістэм штучнага інтэлекту да персанальных даных не павінна беспадстаўна скарачаць рэальную або суб’ектыўна ўспрымальную свабоду людзей.
  14. Усеагульная карысць: тэхналогіі штучнага інтэлекту павінны прыносіць карысць максімальна магчымай колькасці людзей.
  15. Усеагульны дабрабыт: эканамічныя перавагі, дасягнутыя пры дапамозе штучнага інтэлекту, павінны шырока распаўсюджвацца і прыносіць карысць агулам чалавецтву.
  16. Кантроль штучнага інтэлекту чалавекам: людзі павінны кантраляваць працэдуру і ступень неабходнасці перадачы сістэме штучнага інтэлекту функцыі прыняцця рашэнняў для выканання мэт, пастаўленых чалавекам.
  17. Устойлівасць сістэм: тыя, хто мае ўплыў, кіруючы прасунутымі сістэмамі штучнага інтэлекту, павінны паважаць і паляпшаць грамадскія працэсы, ад якіх залежыць здароўе соцыўму, а не падрываць іх
  18. Гонка ўзбраенняў у галіне штучнага інтэлекту: варта пазбягаць гонкі ўзбраенняў у галіне аўтаномнай летальнай зброі
  19. Небяспека недаацэнкі магчымасцяў: варта пазбягаць упэўненых здагадак адносна верхняга парога магчымасцяў штучнага інтэлекту ў будучыні, асабліва калі няма кансэнсусу па гэтым пытанні
  20. Важнасць: прасунуты штучны інтэлект можа прывесці да карэнных змен у гісторыі жыцця на Зямлі, таму яго распрацоўка і кіраванне ім павінны ажыццяўляцца пры наяўнасці адпаведных рэсурсаў і ва ўмовах асаблівай дбайнасці
  21. Рызыка: патэнцыйная рызыка, звязаная з сістэмамі штучнага інтэлекту, асабліва небяспека катастроф або пагроза існаванню жыцця агулам, павінна нейтралізавацца дзеяннямі па планаванні і змякчэнні рызыкі, суразмернымі магчымаму маштабу ўздзеяння.
  22. Рэкурсіўнае аўтанавучанне: сістэмы штучнага інтэлекту, распрацаваныя для паляпшэння эфектыўнасці ўласных алгарытмаў і саманавучання, якое вядзе да хуткіх якасных або колькасных змен, павінны быць аб’ектам моцнага рэгулявання і кантролю
  23. Усеагульнае дабро: звышрозум павінен быць распрацаваны выключна ў мэтах, якія адпавядаюць большасці этычных ідэалаў і для карысці агулам чалавецтва, а не адной дзяржавы або арганізацыі

Зноскі

  1. Future of Life Institute 2017 Asilomar Conference. — ai-ethics.com. — 1 снежня 2017
  2. ASILOMAR AI PRINCIPLES.- The Future of Life Institute. — 1 снежня 2017

Гл. таксама

правіць