Дослідження методів пояснюваності нейронних мереж у медичній сфері
| dc.contributor.advisor | Гайдаєнко О. В. | |
| dc.contributor.author | Вербицький Олександр Сергійович | |
| dc.contributor.author | Verbytskyi Oleksandr | |
| dc.date.accessioned | 2026-02-04T11:07:44Z | |
| dc.date.issued | 2025 | |
| dc.description | Вербицький, О. С. Дослідження методів пояснюваності нейронних мереж у медичній сфері = Research on the explainability methods of neural networks in the medical field : магістерська робота ; спец. 122 "Комп'ютерні науки" / О. С. Вербицький ; наук. кер. О. В. Гайдаєнко. – Миколаїв : НУК, 2025. – 102 с. | |
| dc.description.abstract | Дана курсова робота присвячена аналізу методів пояснюваності нейронних мереж у медичній сфері. У сучасній медицині штучний інтелект та нейронні мережі знаходять дедалі ширше застосування, зокрема у діагностиці, прогнозуванні та персоналізованому лікуванні. Однак складність та "чорний ящик" таких моделей викликають питання довіри та необхідності інтерпретації результатів, що стає особливо важливим у контексті прийняття критичних рішень для життя і здоров'я пацієнтів. Мета роботи полягає в підвищенні оцінки ефективності існуючих методів пояснюваності нейронних мереж у медичній сфері для підвищення довіри, прозорості та прийнятності рішень ШІ серед медичних фахівців. Окрему увагу приділено викликам, пов'язаним із коректністю даних, уникненням помилок у діагностиці та підвищенням прозорості моделей. Результати дослідження можуть сприяти подальшому розвитку методологій пояснюваності, забезпечуючи більшу довіру до штучного інтелекту в медицині, що є важливим кроком на шляху до покращення якості медичних послуг. Кваліфікаційна робота викладена на 80 сторінках машинописного тексту та містить: 18 рисунків, 4 додатків, список використаних джерел з 15 найменувань. | |
| dc.description.abstract1 | This term paper is dedicated to the analysis of explainability methods for neural networks in the medical field. In modern medicine, artificial intelligence and neural networks are increasingly used in diagnostics, prognosis, and personalized treatment. However, the complexity and "black-box" nature of such models raise questions of trust and the necessity for interpretation of results, which becomes critically important when making life-impacting decisions for patients. The objective of this study is to analyze current approaches to explaining the operation of neural networks and evaluate their effectiveness in the medical context. The paper examines various explainability methods, their advantages, limitations, and potential for integration into medical systems. Special attention is given to challenges related to data accuracy, error avoidance in diagnostics, and enhancing model transparency. The research findings can contribute to the further development of explainability methodologies, fostering greater trust in artificial intelligence in medicine, which is a vital step toward improving the quality of medical services. The qualification work is laid out on 80 pages of typewritten text and contains: 80 figures, 4 appendices, a list of used sources from 15 titles. | |
| dc.description.provenance | Submitted by Альона Павленко (aliona.pavlenko@nuos.edu.ua) on 2026-01-28T09:29:23Z workflow start=Step: reviewstep - action:claimaction No. of bitstreams: 1 Вербицький_диплом_.pdf: 42677280 bytes, checksum: 82feb8308593b08762fc5ff95817b0a3 (MD5) | en |
| dc.description.provenance | Step: reviewstep - action:reviewaction Approved for entry into archive by Диндеренко Катерина (kateryna.dynderenko@nuos.edu.ua) on 2026-02-04T11:04:38Z (GMT) | en |
| dc.description.provenance | Step: editstep - action:editaction Approved for entry into archive by Диндеренко Катерина (kateryna.dynderenko@nuos.edu.ua) on 2026-02-04T11:07:22Z (GMT) | en |
| dc.description.provenance | Step: finaleditstep - action:finaleditaction Approved for entry into archive by Диндеренко Катерина (kateryna.dynderenko@nuos.edu.ua) on 2026-02-04T11:07:44Z (GMT) | en |
| dc.description.provenance | Made available in DSpace on 2026-02-04T11:07:44Z (GMT). No. of bitstreams: 1 Verbytskyi_ magister: 42677280 bytes, checksum: 82feb8308593b08762fc5ff95817b0a3 (MD5) Previous issue date: 2025 | en |
| dc.identifier.uri | https://eir.nuos.edu.ua/handle/123456789/12119 | |
| dc.language.iso | uk | |
| dc.subject | пояснюваність нейронних мереж | |
| dc.subject | штучний інтелект у медицині | |
| dc.subject | медична діагностика | |
| dc.subject | прозорість моделей ШІ | |
| dc.subject | довіра до штучного інтелекту | |
| dc.subject | 122 "Комп'ютерні науки" | |
| dc.subject | explainability of neural networks | |
| dc.subject | artificial intelligence in medicine | |
| dc.subject | medical diagnostics | |
| dc.subject | transparency of ai models | |
| dc.subject | trust in artificial intelligence | |
| dc.title | Дослідження методів пояснюваності нейронних мереж у медичній сфері | |
| dc.title.alternative | Research on the explainability methods of neural networks in the medical field | |
| dc.type | MasterThesis |
Файли
Контейнер файлів
1 - 1 з 1
Вантажиться...
- Назва:
- Verbytskyi_ magister
- Розмір:
- 40.7 MB
- Формат:
- Adobe Portable Document Format
Ліцензійна угода
1 - 1 з 1
Вантажиться...
- Назва:
- license.txt
- Розмір:
- 4.38 KB
- Формат:
- Item-specific license agreed upon to submission
- Опис: