Тренды BI 2019: расцвет ИИ с объяснительной способностью

Tags: ИИ, AI, machine learning

Поскольку организации больше полагаются на модели искусственного интеллекта и машинного обучения, как можно гарантировать, что они заслуживают доверия?

Посыл искусственного интеллекта (ИИ) заключается в том, что машины улучшат понимание человека, автоматизируя процесс принятия решений. Джош Паренто (Josh Parenteau), директор Market Intelligence в Tableau, объяснил, как искусственный интеллект и машинное обучение будут действовать в качестве еще одной перспективы, «помогая раскрыть те идеи, которые ранее не были обнаружены». Исследования Gartner показывают, что к 2020 году «85% ИТ-директоров будут пилотировать программы искусственного интеллекта путем сочетания усилий по покупке, сборке и передаче на внешний подряд». Но когда организации все больше полагаются на модели машинного обучения, как люди могут быть уверены, что эти рекомендации заслуживают доверия?

Многие приложения машинного обучения в настоящее время не имеют возможности «заглянуть под капот», чтобы понять алгоритмы или логику решений и рекомендаций, поэтому организации, внедряющие программы ИИ, по праву обеспокоены широким распространением. Адриан Веллер, старший научный сотрудник по машинному обучению в Кембриджском университете, отметил: «Прозрачность часто считается критически важной для эффективного развертывания интеллектуальных систем, таких, как машинное обучение. Это происходит по ряду причин - главным образом, для обеспечения того, чтобы модели работали так, как задумано, или для установления доверия с пользователями, чтобы они могли уверенно принимать решения на основе прогнозов.

Необходимость прозрачности привела к росту ИИ с объяснительной способностью, практики понимания и представления прозрачных представлений в моделях машинного обучения. Лица, принимающие решения, ожидают, что смогут задать дополнительные вопросы о том, почему модель говорит то или иное, насколько она уверена в этом, и что она скажет, если исходные данные будут разными - очень похоже на то, как руководитель расспрашивает живого эксперта при принятии критических решений. Как отмечает Ричард Тиббеттс, менеджер по продуктам искусственного интеллекта в Tableau: «Лица, принимающие решения, вправе скептически относиться к тем случаям, когда ответы, предоставленные ИИ и машинным обучением, невозможно объяснить. Аналитика и ИИ должны помочь - но не полностью заменить - человеческий опыт и понимание».

Ряд бизнес-лидеров в организациях, особенно в организациях, занимающихся такими рисками, как финансовые услуги и фармацевтические компании, требуют от групп по науке данных использовать более понятные модели и предлагать документацию или контрольный журнал о том, как создаются модели. Поскольку ученым по данным поручено объяснять эти модели бизнес-пользователям, они опираются на платформы BI как на интерактивный метод для изучения и проверки выводов. В конечном итоге компании осознали ценность искусственного интеллекта и машинного обучения. Но чтобы оказать пробивающее воздействие на организации, нужно доверять ИИ. Он должен обосновывать свои выводы как можно проще и динамически отвечать на последующие вопросы - все, чтобы помочь людям лучше понять свои данные.

No Comments

Add a Comment