МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ

Предметом дослідження є процеси формування пояснень щодо рішення системи штучного інтелекту. Пояснення використовуються для того, щоб користувач зрозумів процес отримання результату і міг більш ефективно застосовувати інтелектуальну інформаційну систему для формування практично прийнятих для нього р...

Full description

Bibliographic Details
Main Authors: Serhii Chalyi, Volodymyr Leshchynskyi
Format: Article
Language:English
Published: National Technical University Kharkiv Polytechnic Institute 2023-12-01
Series:Вісник Національного технічного університету "ХПÌ": Системний аналіз, управління та інформаційні технології
Subjects:
Online Access:http://samit.khpi.edu.ua/article/view/293671
_version_ 1797367230476845056
author Serhii Chalyi
Volodymyr Leshchynskyi
author_facet Serhii Chalyi
Volodymyr Leshchynskyi
author_sort Serhii Chalyi
collection DOAJ
description Предметом дослідження є процеси формування пояснень щодо рішення системи штучного інтелекту. Пояснення використовуються для того, щоб користувач зрозумів процес отримання результату і міг більш ефективно застосовувати інтелектуальну інформаційну систему для формування практично прийнятих для нього рішень. Мета роботи полягає у розробці методу оцінки пояснень з урахуванням відмінностей у вхідних даних  та відповідному рішенні системи штучного інтелекту. Вирішення цієї задачі дає можливість оцінити відповідність пояснення щодо внутрішньому механізму прийняття рішення в інтелектуальній інформаційній системі незалежно від рівня знань користувача щодо особливостей формування та використання такого рішення. Для досягнення мети вирішуються такі задачі: структуризація оцінки пояснень в залежності від рівня їх деталізації з урахуванням їх відповідності процесу прийняття рішення в інтелектуальній системі та рівню сприйняття користувача такої системи; розробка методу оцінки пояснень на основі їх відповідності процесу прийняття рішення в інтелектуальній системі. Висновки. Виконано структуризацію оцінки пояснень в залежності від рівня їх деталізації. Виділено рівні асоціативних залежностей, прецедентів, каузальних залежностей та інтерактивний, що визначають різний ступінь деталізації пояснень. Показано, що асоціативний та каузальний рівні деталізації пояснень можуть бути оцінені з використанням числових, ймовірнісних або можливісних показників. Прецедентний та інтерактивний рівні потребують суб’єктивної оцінки на основі опитування користувачів системи штучного інтелекту. Розроблено метод можливісного оцінювання відповідності пояснень процесу прийняття рішень в інтелектуальній системі з урахуванням залежностей між вхідними даними та рішенням інтелектуальної системи. Метод містить етапи оцінювання чутливості, коректності та складності пояснення на основі порівняння значень та кількості використаних у поясненні вхідних даних. Метод дає можливість комплексно оцінити пояснення з позицій стійкості до несуттєвих змін у вхідних даних, відповідності пояснення отриманому результату, а також складності обчислення пояснення. У аспекті практичного застосування метод дає можливість мінімізувати кількість вхідних змінних для пояснення при задоволенні обмеження на чутливість пояснення, що створює умови для більш ефективного формування тлумачення на основі використання підмножини ключових вхідних змінних, які мають суттєвий вплив на отримане в інтелектуальній системі рішення.
first_indexed 2024-03-08T17:14:21Z
format Article
id doaj.art-f2e610b8ec5b481a94bd0edf1f66b9e5
institution Directory Open Access Journal
issn 2079-0023
2410-2857
language English
last_indexed 2024-03-08T17:14:21Z
publishDate 2023-12-01
publisher National Technical University Kharkiv Polytechnic Institute
record_format Article
series Вісник Національного технічного університету "ХПÌ": Системний аналіз, управління та інформаційні технології
spelling doaj.art-f2e610b8ec5b481a94bd0edf1f66b9e52024-01-03T17:08:36ZengNational Technical University Kharkiv Polytechnic InstituteВісник Національного технічного університету "ХПÌ": Системний аналіз, управління та інформаційні технології2079-00232410-28572023-12-012 (10)9510110.20998/2079-0023.2023.02.14331963МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУSerhii Chalyi0https://orcid.org/0000-0002-9982-9091Volodymyr Leshchynskyi1https://orcid.org/0000-0002-8690-5702Харківський національний університет радіоелектронікиХарківський національний університет радіоелектронікиПредметом дослідження є процеси формування пояснень щодо рішення системи штучного інтелекту. Пояснення використовуються для того, щоб користувач зрозумів процес отримання результату і міг більш ефективно застосовувати інтелектуальну інформаційну систему для формування практично прийнятих для нього рішень. Мета роботи полягає у розробці методу оцінки пояснень з урахуванням відмінностей у вхідних даних  та відповідному рішенні системи штучного інтелекту. Вирішення цієї задачі дає можливість оцінити відповідність пояснення щодо внутрішньому механізму прийняття рішення в інтелектуальній інформаційній системі незалежно від рівня знань користувача щодо особливостей формування та використання такого рішення. Для досягнення мети вирішуються такі задачі: структуризація оцінки пояснень в залежності від рівня їх деталізації з урахуванням їх відповідності процесу прийняття рішення в інтелектуальній системі та рівню сприйняття користувача такої системи; розробка методу оцінки пояснень на основі їх відповідності процесу прийняття рішення в інтелектуальній системі. Висновки. Виконано структуризацію оцінки пояснень в залежності від рівня їх деталізації. Виділено рівні асоціативних залежностей, прецедентів, каузальних залежностей та інтерактивний, що визначають різний ступінь деталізації пояснень. Показано, що асоціативний та каузальний рівні деталізації пояснень можуть бути оцінені з використанням числових, ймовірнісних або можливісних показників. Прецедентний та інтерактивний рівні потребують суб’єктивної оцінки на основі опитування користувачів системи штучного інтелекту. Розроблено метод можливісного оцінювання відповідності пояснень процесу прийняття рішень в інтелектуальній системі з урахуванням залежностей між вхідними даними та рішенням інтелектуальної системи. Метод містить етапи оцінювання чутливості, коректності та складності пояснення на основі порівняння значень та кількості використаних у поясненні вхідних даних. Метод дає можливість комплексно оцінити пояснення з позицій стійкості до несуттєвих змін у вхідних даних, відповідності пояснення отриманому результату, а також складності обчислення пояснення. У аспекті практичного застосування метод дає можливість мінімізувати кількість вхідних змінних для пояснення при задоволенні обмеження на чутливість пояснення, що створює умови для більш ефективного формування тлумачення на основі використання підмножини ключових вхідних змінних, які мають суттєвий вплив на отримане в інтелектуальній системі рішення.http://samit.khpi.edu.ua/article/view/293671поясненняоцінка поясненнясистема штучного інтелектуінтелектуальна системазрозумілий штучний інтелектасоціативна залежністькаузальна залежністьпрецедентінформаційна системарекомендаційна система
spellingShingle Serhii Chalyi
Volodymyr Leshchynskyi
МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ
Вісник Національного технічного університету "ХПÌ": Системний аналіз, управління та інформаційні технології
пояснення
оцінка пояснення
система штучного інтелекту
інтелектуальна система
зрозумілий штучний інтелект
асоціативна залежність
каузальна залежність
прецедент
інформаційна система
рекомендаційна система
title МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ
title_full МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ
title_fullStr МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ
title_full_unstemmed МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ
title_short МЕТОД МОЖЛИВІСНОГО ОЦІНЮВАННЯ ПОЯСНЕННЯ В СИСТЕМІ ШТУЧНОГО ІНТЕЛЕКТУ
title_sort метод можливісного оцінювання пояснення в системі штучного інтелекту
topic пояснення
оцінка пояснення
система штучного інтелекту
інтелектуальна система
зрозумілий штучний інтелект
асоціативна залежність
каузальна залежність
прецедент
інформаційна система
рекомендаційна система
url http://samit.khpi.edu.ua/article/view/293671
work_keys_str_mv AT serhiichalyi metodmožlivísnogoocínûvannâpoâsnennâvsistemíštučnogoíntelektu
AT volodymyrleshchynskyi metodmožlivísnogoocínûvannâpoâsnennâvsistemíštučnogoíntelektu