Изкуственият интелект се прилага във всяка индустрия. Често това се случва зад кулисите. Потребителите обаче се сблъскват с изкуствения интелект ежедневно, например в автоматичните чатботове, които се появяват на много уебсайтове. Активно се насърчава използването на ИИ във всеки аспект от живота ни. И все пак един основен недостатък означава, че технологията може да не е подходяща за всички тези задачи. Активно се насърчаваме да се ангажираме с ИИ във всеки аспект от живота ни. Основен недостатък обаче означава, че технологията може да не е подходяща за всички тези задачи.
ИИ е чудесен за установяване на факти
Неотдавнашно изследване, проведено от екип в университета „Пърдю“, установи значителен дисбаланс в човешките ценности, заложени в системите на ИИ. Проучването разкрива, че наборите от данни за обучение на ИИ дават приоритет на информацията и полезните стойности. Те са създадени, за да помагат на хората да намират по-бързо висококачествена, основана на факти информация. В същото време тези модели пренебрегват нематериални фактори, като благополучие и граждански ценности.
Моделите на изкуствения интелект се обучават върху огромни колекции от данни. Те използват това „обучение“, за да генерират полезни и подходящи отговори на въведените от потребителя данни. Въпреки че тези набори от данни са щателно курирани, понякога те съдържат неетично или забранено съдържание. Това е особено вярно, ако информацията е събрана от акаунти в социалните медии.
За да се справят с този проблем, изследователите са въвели метод, наречен усилено учене от човешка обратна връзка. При него се използват високо кураторски набори от данни за човешките предпочитания, за да се формира поведение на ИИ в посока на полезност и честност, като по този начин се „отменят“ неетичните познания.
Техниката на стойностния отпечатък
Екипът на университета „Пърдю“ е разработил техника, наречена „Value Imprint“, за одит на наборите от данни за обучение на моделите на ИИ. Те проучиха три набора от данни за обучение с отворен код, използвани от водещи американски компании за ИИ, за да категоризират човешките ценности според моралната философия, теорията на ценностите и изследванията на науката, технологиите и обществото.
Тези усилия идентифицираха седем категории ценности, използвани от хората:
- Благополучие и мир
- Търсене на информация
- Справедливост, права на човека и права на животните
- Задължения и отчетност
- Мъдрост и знание
- Цивилизованост и толерантност
- Съпричастност и помощ
Тези категории (известни също като таксономия) позволиха на изследователите да анотират ръчно набор от данни и да обучат езиков модел на изкуствен интелект за анализ на наборите от данни на компаниите.
Какво откриха те
Проучването разкри, че системите с ИИ са силно ориентирани към предоставяне на полезни и честни отговори на технически въпроси, като например как да резервирате полет. Много по-малко вероятно е обаче наборите от данни да съдържат примери за това как да се отговори на теми, свързани със съпричастност, справедливост и човешки права.
Като цяло наборите от данни най-често представяха мъдростта, знанието и търсенето на информация като две основни ценности. Ценности като справедливост, права на човека и права на животните бяха много по-рядко срещани в наборите от данни за обучение.
Последици от изследването на университета „Пърдю“
Като се има предвид, че повечето двигатели за изкуствен интелект понастоящем се подготвят за решаване на практически проблеми за потребителите, тази констатация не е голяма изненада. Въпреки това този дисбаланс в човешките ценности в наборите от данни за обучение на ИИ може да има значителни последици за начина, по който системите за ИИ взаимодействат с хората и подхождат към сложни социални проблеми.
Тъй като изкуственият интелект все повече навлиза в критични сектори като правото, здравеопазването и социалните медии, от решаващо значение е тези системи да въплъщават широк спектър от колективни ценности. Това гарантира, че ИИ не само ефективно отговаря на нуждите на хората, но и работи по начин, който е етичен и отговорен.
Какво следва?
Като прави видими ценностите, заложени в тези системи, екипът на „Пърдю“ има за цел да помогне на компаниите, занимаващи се с ИИ, да създават по-балансирани набори от данни, които по-добре отразяват ценностите на общностите, на които служат. Компаниите могат да използват тази техника на таксономия, за да идентифицират областите за подобрение и да увеличат разнообразието на своите данни за обучение по ИИ.
Като следват примера на екипа на „Пърдю“, доставчиците ще могат да създават модели на ИИ, които по-добре отразяват широкия спектър от изисквания на потребителите. Това ще издигне технологията на ИИ отвъд ролята на изключителен инструмент за установяване на факти до всестранно подпомагане на ежедневния живот.