Дослідження методів пояснюваності нейронних мереж у медичній сфері

dc.contributor.advisorГайдаєнко О. В.
dc.contributor.authorВербицький Олександр Сергійович
dc.contributor.authorVerbytskyi Oleksandr
dc.date.accessioned2026-02-04T11:07:44Z
dc.date.issued2025
dc.descriptionВербицький, О. С. Дослідження методів пояснюваності нейронних мереж у медичній сфері = Research on the explainability methods of neural networks in the medical field : магістерська робота ; спец. 122 "Комп'ютерні науки" / О. С. Вербицький ; наук. кер. О. В. Гайдаєнко. – Миколаїв : НУК, 2025. – 102 с.
dc.description.abstractДана курсова робота присвячена аналізу методів пояснюваності нейронних мереж у медичній сфері. У сучасній медицині штучний інтелект та нейронні мережі знаходять дедалі ширше застосування, зокрема у діагностиці, прогнозуванні та персоналізованому лікуванні. Однак складність та "чорний ящик" таких моделей викликають питання довіри та необхідності інтерпретації результатів, що стає особливо важливим у контексті прийняття критичних рішень для життя і здоров'я пацієнтів. Мета роботи полягає в підвищенні оцінки ефективності існуючих методів пояснюваності нейронних мереж у медичній сфері для підвищення довіри, прозорості та прийнятності рішень ШІ серед медичних фахівців. Окрему увагу приділено викликам, пов'язаним із коректністю даних, уникненням помилок у діагностиці та підвищенням прозорості моделей. Результати дослідження можуть сприяти подальшому розвитку методологій пояснюваності, забезпечуючи більшу довіру до штучного інтелекту в медицині, що є важливим кроком на шляху до покращення якості медичних послуг. Кваліфікаційна робота викладена на 80 сторінках машинописного тексту та містить: 18 рисунків, 4 додатків, список використаних джерел з 15 найменувань.
dc.description.abstract1This term paper is dedicated to the analysis of explainability methods for neural networks in the medical field. In modern medicine, artificial intelligence and neural networks are increasingly used in diagnostics, prognosis, and personalized treatment. However, the complexity and "black-box" nature of such models raise questions of trust and the necessity for interpretation of results, which becomes critically important when making life-impacting decisions for patients. The objective of this study is to analyze current approaches to explaining the operation of neural networks and evaluate their effectiveness in the medical context. The paper examines various explainability methods, their advantages, limitations, and potential for integration into medical systems. Special attention is given to challenges related to data accuracy, error avoidance in diagnostics, and enhancing model transparency. The research findings can contribute to the further development of explainability methodologies, fostering greater trust in artificial intelligence in medicine, which is a vital step toward improving the quality of medical services. The qualification work is laid out on 80 pages of typewritten text and contains: 80 figures, 4 appendices, a list of used sources from 15 titles.
dc.description.provenanceSubmitted by Альона Павленко (aliona.pavlenko@nuos.edu.ua) on 2026-01-28T09:29:23Z workflow start=Step: reviewstep - action:claimaction No. of bitstreams: 1 Вербицький_диплом_.pdf: 42677280 bytes, checksum: 82feb8308593b08762fc5ff95817b0a3 (MD5)en
dc.description.provenanceStep: reviewstep - action:reviewaction Approved for entry into archive by Диндеренко Катерина (kateryna.dynderenko@nuos.edu.ua) on 2026-02-04T11:04:38Z (GMT)en
dc.description.provenanceStep: editstep - action:editaction Approved for entry into archive by Диндеренко Катерина (kateryna.dynderenko@nuos.edu.ua) on 2026-02-04T11:07:22Z (GMT)en
dc.description.provenanceStep: finaleditstep - action:finaleditaction Approved for entry into archive by Диндеренко Катерина (kateryna.dynderenko@nuos.edu.ua) on 2026-02-04T11:07:44Z (GMT)en
dc.description.provenanceMade available in DSpace on 2026-02-04T11:07:44Z (GMT). No. of bitstreams: 1 Verbytskyi_ magister: 42677280 bytes, checksum: 82feb8308593b08762fc5ff95817b0a3 (MD5) Previous issue date: 2025en
dc.identifier.urihttps://eir.nuos.edu.ua/handle/123456789/12119
dc.language.isouk
dc.subjectпояснюваність нейронних мереж
dc.subjectштучний інтелект у медицині
dc.subjectмедична діагностика
dc.subjectпрозорість моделей ШІ
dc.subjectдовіра до штучного інтелекту
dc.subject122 "Комп'ютерні науки"
dc.subjectexplainability of neural networks
dc.subjectartificial intelligence in medicine
dc.subjectmedical diagnostics
dc.subjecttransparency of ai models
dc.subjecttrust in artificial intelligence
dc.titleДослідження методів пояснюваності нейронних мереж у медичній сфері
dc.title.alternativeResearch on the explainability methods of neural networks in the medical field
dc.typeMasterThesis

Файли

Контейнер файлів

Зараз показуємо 1 - 1 з 1
Вантажиться...
Ескіз
Назва:
Verbytskyi_ magister
Розмір:
40.7 MB
Формат:
Adobe Portable Document Format

Ліцензійна угода

Зараз показуємо 1 - 1 з 1
Вантажиться...
Ескіз
Назва:
license.txt
Розмір:
4.38 KB
Формат:
Item-specific license agreed upon to submission
Опис: