Место издания:Московский университет им. С.Ю. Витте Москва
Первая страница:134
Последняя страница:151
Аннотация:Настоящая работа посвящена вопросу создания доверительного искусственно-го интеллекта (ИИ) для решения задач устойчивого развития. Показано, что базовая архитектура должна включать безопасные алгоритмы, интерпретируемые модели, механизм объяснимости и формализованные метрики доверия.Особое внимание уделено объяснимому ИИ, обеспечивающему двустороннююкоммуникацию между алгоритмом и экспертами, позволяя одновременно прояснять логику принятия решений и интегрировать человеческие знания. Продемонстрировано, что сочетание нечеткой логики, онтологий и когнитивных карт повышает прозрачность и адаптивность систем, работающих с мультимодальными данными. Такой инкрементный подход учитывает локальные факторы и снижает риски внедрения ИИ в социально значимые сферы, включая здравоохранение, экологию и образование. Делается вывод о важности дальнейшего развития формальных методов оценки объяснимости и расширения инструментов мультимодальной интеграции для эффективного взаимодействия с человеческим опытом и долгосрочного достижения целей.