В работе рассматривается проблема атак Data Poisoning на модели машинного обучения и предложен усовершенствованный подход к их выявлению на основе алгоритма Local Outlier Factor. Модификации включают адаптивное определение параметра contamination, медианное сглаживание шумов и использование расстояния Махаланобиса для учета корреляций признаков. Экспериментально подтверждена высокая эффективность предложенных методов в условиях целенаправленного внесения вредоносных данных.
Ключевые слова: атаки Data Poisoning, модели машинного обучения, алгоритм Local Outlier Factor, медианный фильтр, адаптивное contamination, расстояние Махаланобиса.
Библиографическая ссылка
Олифиренко А.А. 1 МАТЕМАТИЧЕСКОЕ МОДЕЛИРОВАНИЕ ВЫЯВЛЕНИЯ АТАК DATA POISONING НА МОДЕЛИ МАШИННОГО ОБУЧЕНИЯ С ПРИМЕНЕНИЕМ АЛГОРИТМА LOCAL OUTLIER FACTOR // Математическое моделирование, компьютерный и натурный эксперимент в естественных науках. – 2025. – № 2;
URL: mathmod.esrae.ru/50-216 (дата обращения:
01.06.2025).