МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ
Предметом дослідження є процеси формування пояснень щодо рішення системи штучного інтелекту. Пояснення використовуються для того, щоб користувач зрозумів процес отримання результату і міг більш ефективно застосовувати інтелектуальну інформаційну систему для формування практично прийнятих для нього р...
Main Authors: | , |
---|---|
Format: | Article |
Language: | English |
Published: |
National Technical University Kharkiv Polytechnic Institute
2023-12-01
|
Series: | Вісник Національного технічного університету "ХПÌ": Системний аналіз, управління та інформаційні технології |
Subjects: | |
Online Access: | http://samit.khpi.edu.ua/article/view/293671 |
_version_ | 1797367230476845056 |
---|---|
author | Serhii Chalyi Volodymyr Leshchynskyi |
author_facet | Serhii Chalyi Volodymyr Leshchynskyi |
author_sort | Serhii Chalyi |
collection | DOAJ |
description | Предметом дослідження є процеси формування пояснень щодо рішення системи штучного інтелекту. Пояснення використовуються для того, щоб користувач зрозумів процес отримання результату і міг більш ефективно застосовувати інтелектуальну інформаційну систему для формування практично прийнятих для нього рішень. Мета роботи полягає у розробці методу оцінки пояснень з урахуванням відмінностей у вхідних даних та відповідному рішенні системи штучного інтелекту. Вирішення цієї задачі дає можливість оцінити відповідність пояснення щодо внутрішньому механізму прийняття рішення в інтелектуальній інформаційній системі незалежно від рівня знань користувача щодо особливостей формування та використання такого рішення. Для досягнення мети вирішуються такі задачі: структуризація оцінки пояснень в залежності від рівня їх деталізації з урахуванням їх відповідності процесу прийняття рішення в інтелектуальній системі та рівню сприйняття користувача такої системи; розробка методу оцінки пояснень на основі їх відповідності процесу прийняття рішення в інтелектуальній системі. Висновки. Виконано структуризацію оцінки пояснень в залежності від рівня їх деталізації. Виділено рівні асоціативних залежностей, прецедентів, каузальних залежностей та інтерактивний, що визначають різний ступінь деталізації пояснень. Показано, що асоціативний та каузальний рівні деталізації пояснень можуть бути оцінені з використанням числових, ймовірнісних або можливісних показників. Прецедентний та інтерактивний рівні потребують суб’єктивної оцінки на основі опитування користувачів системи штучного інтелекту. Розроблено метод можливісного оцінювання відповідності пояснень процесу прийняття рішень в інтелектуальній системі з урахуванням залежностей між вхідними даними та рішенням інтелектуальної системи. Метод містить етапи оцінювання чутливості, коректності та складності пояснення на основі порівняння значень та кількості використаних у поясненні вхідних даних. Метод дає можливість комплексно оцінити пояснення з позицій стійкості до несуттєвих змін у вхідних даних, відповідності пояснення отриманому результату, а також складності обчислення пояснення. У аспекті практичного застосування метод дає можливість мінімізувати кількість вхідних змінних для пояснення при задоволенні обмеження на чутливість пояснення, що створює умови для більш ефективного формування тлумачення на основі використання підмножини ключових вхідних змінних, які мають суттєвий вплив на отримане в інтелектуальній системі рішення. |
first_indexed | 2024-03-08T17:14:21Z |
format | Article |
id | doaj.art-f2e610b8ec5b481a94bd0edf1f66b9e5 |
institution | Directory Open Access Journal |
issn | 2079-0023 2410-2857 |
language | English |
last_indexed | 2024-03-08T17:14:21Z |
publishDate | 2023-12-01 |
publisher | National Technical University Kharkiv Polytechnic Institute |
record_format | Article |
series | Вісник Національного технічного університету "ХПÌ": Системний аналіз, управління та інформаційні технології |
spelling | doaj.art-f2e610b8ec5b481a94bd0edf1f66b9e52024-01-03T17:08:36ZengNational Technical University Kharkiv Polytechnic InstituteВісник Національного технічного університету "ХПÌ": Системний аналіз, управління та інформаційні технології2079-00232410-28572023-12-012 (10)9510110.20998/2079-0023.2023.02.14331963МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУSerhii Chalyi0https://orcid.org/0000-0002-9982-9091Volodymyr Leshchynskyi1https://orcid.org/0000-0002-8690-5702Харківський національний університет радіоелектронікиХарківський національний університет радіоелектронікиПредметом дослідження є процеси формування пояснень щодо рішення системи штучного інтелекту. Пояснення використовуються для того, щоб користувач зрозумів процес отримання результату і міг більш ефективно застосовувати інтелектуальну інформаційну систему для формування практично прийнятих для нього рішень. Мета роботи полягає у розробці методу оцінки пояснень з урахуванням відмінностей у вхідних даних та відповідному рішенні системи штучного інтелекту. Вирішення цієї задачі дає можливість оцінити відповідність пояснення щодо внутрішньому механізму прийняття рішення в інтелектуальній інформаційній системі незалежно від рівня знань користувача щодо особливостей формування та використання такого рішення. Для досягнення мети вирішуються такі задачі: структуризація оцінки пояснень в залежності від рівня їх деталізації з урахуванням їх відповідності процесу прийняття рішення в інтелектуальній системі та рівню сприйняття користувача такої системи; розробка методу оцінки пояснень на основі їх відповідності процесу прийняття рішення в інтелектуальній системі. Висновки. Виконано структуризацію оцінки пояснень в залежності від рівня їх деталізації. Виділено рівні асоціативних залежностей, прецедентів, каузальних залежностей та інтерактивний, що визначають різний ступінь деталізації пояснень. Показано, що асоціативний та каузальний рівні деталізації пояснень можуть бути оцінені з використанням числових, ймовірнісних або можливісних показників. Прецедентний та інтерактивний рівні потребують суб’єктивної оцінки на основі опитування користувачів системи штучного інтелекту. Розроблено метод можливісного оцінювання відповідності пояснень процесу прийняття рішень в інтелектуальній системі з урахуванням залежностей між вхідними даними та рішенням інтелектуальної системи. Метод містить етапи оцінювання чутливості, коректності та складності пояснення на основі порівняння значень та кількості використаних у поясненні вхідних даних. Метод дає можливість комплексно оцінити пояснення з позицій стійкості до несуттєвих змін у вхідних даних, відповідності пояснення отриманому результату, а також складності обчислення пояснення. У аспекті практичного застосування метод дає можливість мінімізувати кількість вхідних змінних для пояснення при задоволенні обмеження на чутливість пояснення, що створює умови для більш ефективного формування тлумачення на основі використання підмножини ключових вхідних змінних, які мають суттєвий вплив на отримане в інтелектуальній системі рішення.http://samit.khpi.edu.ua/article/view/293671поясненняоцінка поясненнясистема штучного інтелектуінтелектуальна системазрозумілий штучний інтелектасоціативна залежністькаузальна залежністьпрецедентінформаційна системарекомендаційна система |
spellingShingle | Serhii Chalyi Volodymyr Leshchynskyi МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ Вісник Національного технічного університету "ХПÌ": Системний аналіз, управління та інформаційні технології пояснення оцінка пояснення система штучного інтелекту інтелектуальна система зрозумілий штучний інтелект асоціативна залежність каузальна залежність прецедент інформаційна система рекомендаційна система |
title | МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ |
title_full | МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ |
title_fullStr | МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ |
title_full_unstemmed | МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ |
title_short | МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ |
title_sort | метод можливісного оцінювання пояснення в системі штучного інтелекту |
topic | пояснення оцінка пояснення система штучного інтелекту інтелектуальна система зрозумілий штучний інтелект асоціативна залежність каузальна залежність прецедент інформаційна система рекомендаційна система |
url | http://samit.khpi.edu.ua/article/view/293671 |
work_keys_str_mv | AT serhiichalyi metodmožlivísnogoocínûvannâpoâsnennâvsistemíštučnogoíntelektu AT volodymyrleshchynskyi metodmožlivísnogoocínûvannâpoâsnennâvsistemíštučnogoíntelektu |