Исследуется возможность применения задачного подхода к построению объяснимых и доверенных систем искусственного интеллекта. Задача описывается в виде упорядоченной шестерки элементов: цель, входные данные, ограничения, выходные данные, критерий решенности и онтология. Подход интегрирует логические методы рассуждений с вероятностным обучением на основе теории функциональных систем. В рамках этой модели исследуется взаимодействие в мультиагентных системах, где агенты могут быть представлены как LLM-агентами, так и логическими агентами, выполняющими верификацию действий LLM-агентов. Таким образом формализованное понятие задачи позволяет осуществлять иерархические декомпозиции, где сложные задачи разбиваются на более простые подзадачи, что позволяет получать отслеживаемые, понятные человеку объяснения посредством цепочки доказательств, удовлетворяющие соответствующему критерию.