Use este identificador para citar ou linkar para este item:
http://repositorio.utfpr.edu.br/jspui/handle/1/36334
Título: | Explicabilidade em agentes artificiais deliberativos com o padrão publish/subscribe |
Título(s) alternativo(s): | Explainability in deliberative artificial agents with the publish/subscribe pattern |
Autor(es): | Viana, Henrique Emanoel |
Orientador(es): | Tacla, Cesar Augusto |
Palavras-chave: | Sistemas multiagentes Processo decisório Inteligência artificial Processamento de linguagem natural (Computação) Sistemas de reconhecimento de padrões Modelos e construção de modelos Multiagent systems Decision making Artificial intelligence Natural language processing (Computer science) Pattern recognition systems Models and modelmaking |
Data do documento: | 14-Mar-2025 |
Editor: | Universidade Tecnológica Federal do Paraná |
Câmpus: | Curitiba |
Citação: | VIANA, Henrique Emanoel. Explicabilidade em agentes artificiais deliberativos com o padrão publish/subscribe. 2025. Dissertação (Mestrado em Engenharia Elétrica e Informática Industrial) - Universidade Tecnológica Federal do Paraná, Curitiba, 2025. |
Resumo: | O paradigma de agentes adapta-se bem a sistemas ciberfísicos por suas características de distribuição e autonomia. Também se mostra adequado a sistemas informacionais com dados distribuídos, que demandam extração, transformação e apresentação independentes. Em cenários que afetam a vida de pessoas ou que são complexos para usuários e desenvolvedores, é essencial fornecer explicações, seja por razões de responsabilização, confiança ou depuração. Este trabalho propõe um modelo de explicabilidade para SMAs (Sistemas Multiagentes), viabilizando a geração de explicações em paradigmas amplamente difundidos, como POO (Programação Orientada a Objetos) e POE (Programação Orientada a Eventos). O modelo oferece estruturas e mecanismos que desacoplam os aspectos de explicabilidade do comportamento do agente. A base das explicações é o histórico de execução de cada agente, que registra mudanças em seu estado interno (como mudanças em crenças, desejos e intenções) ao longo dos ciclos de deliberação. A partir desse histórico, o modelo infere relações de causa e efeito, formando a estrutura fundamental das explicações. Na implementação em POO, rastrear o estado interno pode gerar um histórico muito extenso, podendo também tornar o código complexo. Para contornar esse problema, optou-se pelo POE, que salva apenas as mudanças no estado interno seguindo o padrão Publish/Subscribe. Essa implementação foi avaliada em dois cenários de prova de conceito: resgate de vítimas e CRM (do inglês: Customer Relationship Management). A avaliação comparou as explicações produzidas com uma explicação final, em linguagem natural, já conhecida, verificando se a interpretação das explicações geradas conduz ao mesmo resultado. Embora o modelo seja exemplificado em agentes orientados a objetivos, ele é genérico o suficiente para ser aplicado em diversos sistemas que utilizem POE. A abordagem, com sua implementação computacional, captura os elementos essenciais para explicar as decisões do agente, cumprindo o objetivo principal. Porém, o trabalho não abrange a geração de explicações em linguagem natural, pois a explicação final pode exigir interpretação adicional por parte de humanos ou de outros algoritmos. Também não são avaliadas as possíveis vantagens do POE em relação ao POO. |
Abstract: | The agent paradigm is well suited to cyber-physical systems due to its distributed and autonomous characteristics. It is also suitable for information systems with distributed data, which require independent extraction, transformation and presentation. In scenarios that affect people’s lives or that are complex for users and developers, it is essential to provide explanations, whether for reasons of accountability, trust or debugging. This work proposes an explainability model for MASs (Multi-Agent Systems), enabling the generation of explanations in widely used paradigms, such as OOP (Object-Oriented Paradigm) and EDP (Event-Driven Paradigm). The model offers structures and mechanisms that decouple the explainability aspects from the agent’s behavior. The basis of the explanations is the execution history of each agent, which records changes in its internal state (such as changes in beliefs, desires and intentions) throughout the deliberation cycles. From this history, the model infers cause and effect relationships, forming the fundamental structure of the explanations. In OOP implementation, tracking the internal state can generate a very extensive history, and can also make the code complex. To overcome this problem, we opted for POE, which saves only changes in the internal state following the Publish/Subscribe pattern. This implementation was evaluated in two proof-of-concept scenarios: victim rescue and CRM (Customer Relationship Management). The evaluation compared the explanations produced with a final explanation, in natural language, already known, verifying whether the interpretation of the generated explanations leads to the same result. Although the model is exemplified in goal-oriented agents, it is generic enough to be applied in several systems that use POE. The approach, with its computational implementation, captures the essential elements to explain the agent’s decisions, fulfilling the main objective. However, the work does not cover the generation of explanations in natural language, since the final explanation may require additional interpretation by humans or other algorithms. The possible advantages of EDP over OOP are also not evaluated. |
URI: | http://repositorio.utfpr.edu.br/jspui/handle/1/36334 |
Aparece nas coleções: | CT - Programa de Pós-Graduação em Engenharia Elétrica e Informática Industrial |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
explicabilidadeagentespublishsubscribe.pdf | 1,38 MB | Adobe PDF | ![]() Visualizar/Abrir |
Este item está licenciada sob uma Licença Creative Commons