Use este identificador para citar ou linkar para este item:
http://repositorio.utfpr.edu.br/jspui/handle/1/29522
Título: | Geração de explicações contrastivas para seleção de objetivos em agentes BDI |
Título(s) alternativo(s): | Denerating contrastive explanations for BDI-based goal selection |
Autor(es): | Jasinski, Henrique Monteiro Rogich |
Orientador(es): | Tacla, Cesar Augusto |
Palavras-chave: | Inteligência artificial Explicação Comportamento humano Intenção Processo decisório Emoções e cognição Artificial intelligence Explanation Human behavior Intention Decision-making Emotions and cognition |
Data do documento: | 26-Abr-2022 |
Editor: | Universidade Tecnológica Federal do Paraná |
Câmpus: | Curitiba |
Citação: | JASINSKI, Henrique Monteiro Rogich. Geração de explicações contrastivas para seleção de objetivos em agentes BDI. 2022. Dissertação (Mestrado em Engenharia Elétrica e Informática Industrial) - Universidade Tecnológica Federal do Paraná, Curitiba, 2022. |
Resumo: | Conforme o uso de sistemas baseados em agentes tem crescido, cada vez mais o público geral tem acesso a eles e é influenciado pelas decisões tomadas por tais sistemas. Isto torna mais necessário que tais sistemas sejam capazes de explicarem suas decisões para usuários leigos. Beliefs-Desires-Intentions é um modelo de agentes comumente utilizado. Ele pode ser bem complexo, uma vez que o agente possui um processo de deliberação interno para decidir quais objetivos ele irá perseguir baseado nas crenças que possui. Tal processo deliberativo é chamado de seleção de objetivos. Quando pessoas explicam coisas umas às outras, elas fazem uso de uma série de diferentes tipos de explicações. Um tipo de explicação muito comum é a explicação contrastiva, onde dois cenários são comparados e a explicação é apresentada como a diferença entre ambos. Desta forma, ao usar casos conhecidos e desconhecidos, é possível apresentar as causas que diferenciam os dois cenários. O interesse em inteligência artificial explicável tem crescido nos últimos anos, ainda assim poucos trabalhos são fundamentados em estudos das ciências sociais e cognitivas em como humanos geram e avaliam explicações. Assim sendo, esta dissertação busca identificar quais informações precisam ser apresentadas para explicações contrastivas, baseado em achados das ciências sociais e cognitivas, e como gerar tais explicações no contexto da seleção de objetivos de agentes Beliefs-Desires-Intentions (BDI). Um método para gerar explicações contrastivas para seleção de objetivos baseada em BDI foi proposto, fundamentado nos trabalhos de Bouwel e Weber (2002) e Grice (1975). A estrutura das perguntas contrastivas propostas no trabalho de Bouwel e Weber (2002) servem de base para a forma das perguntas e respostas que o método proposto atende. O trabalho de Grice (1975) por sua vez estabelece requisitos para comunicação entre duas partes, no caso deste trabalho, um agente e um usuário, que estão cooperando. Tais requisitos, propostos por Grice na forma de quatro grupos de máximas (Quantidade, Qualidade, Relação e Modo), estabelecem restrições e boas práticas em relação às informações que são trocadas entre as partes. Ao basear-se nas máximas de Grice, espera-se que as explicações geradas sejam próximas a duas pessoas conversando e explicando algo entre si. O método gera um conjunto de possíveis explicações, onde cada uma é uma possível resposta, com seus respectivos conjuntos de informações relevantes. Um estudo de caso mostra como os cálculos das informações necessárias são feitos, e como os requisitos baseados no trabalho de Grice são abordados no método. O método atende a três das quatro máximas de Grice, uma vez que a máxima de Modo foi desconsiderada, já que depende da interação com o usuário, que está fora do contexto deste trabalho. As máximas de Qualidade, Relação e Quantidade são atendidas pelas formulações de cada tipo de pergunta utilizadas no primeiro procedimento. O segundo procedimento auxilia na satisfação da máxima de Quantidade. A seleção de uma única resposta precisa ser feito antes que a explicação possa ser apresentada para o usuário final. Tanto a seleção quanto a apresentação da explicação estão fora do escopo deste trabalho. |
Abstract: | As agent-based systems have been growing, more and more people have access to them and are influenced by decisions taken by such systems. This increases the necessity for such systems to be capable of explaining themselves to a lay user. The Beliefs-Desires-Intentions is a commonly used agent model. It can be fairly complex because an agent has an internal deliberation process to decide what goals it will pursue based on its beliefs. This deliberative process is called goal selection. When humans explain things to each other, they make use of a series of different types of explanations. One very common explanation type is the contrastive explanation, where two scenarios are compared and the explanation presents the differences between the cases. In such a way, by using a known case and an unexpected one, it is possible to present only the causes that differentiate both. Interest in explainable artificial intelligence has been increasing in recent years, yet few works are grounded on social and cognitive sciences studies on how humans generate and evaluate explanation. As such, this dissertation aims to identify what information should be part of contrastive explanations, based on findings of social and cognitive sciences, and how to generate such explanations in the context of the Beliefs-Desires-Intentions (BDI) agent’s goal selection. A method for generating contrastive explanations for BDI-based goal selection was proposed, with groundings in the works of Bouwel and Weber (2002) and Grice (1975). The structure of contrastive questions proposed by Bouwel and Weber (2002) is used as a foundation for the questions and answers addressed by the proposed method. In turn, Grice’s (1975) work provides requirements for the communication between two cooperating parties, in the context of this work, an agent and a user. Such requirements, proposed by Grice as four sets of maxims (Quantity, Quality, Relation and Manner), establish restrictions and good practices concerning the information exchanged between the parties. By basing the method on Grice’s maxims, the generated explanations are expected to be closer to two people conversing and explaining some event among themselves. The method generates a set of possible explanations, such that each of them represents a possible answer, with its respective set of relevant information. A case study shows how the calculations of the required information are made and how requirements based on Grice’s work are accounted for. The method addresses three out of four of Grice’s maxims, as the maxim of Manner was disregarded since it is dependent on the user interaction, which is outside the scope of this work. The Quality, Relation, and Quantity maxims are addressed by each question type formulation used in the first procedure. The second procedure contributes to the satisfaction of the Quantity maxim. The selection of a single explanation needs to be done before presenting the answer to the final user. Both selection and presentation of the explanation are outside the scope of this work. |
URI: | http://repositorio.utfpr.edu.br/jspui/handle/1/29522 |
Aparece nas coleções: | CT - Programa de Pós-Graduação em Engenharia Elétrica e Informática Industrial |
Arquivos associados a este item:
Arquivo | Descrição | Tamanho | Formato | |
---|---|---|---|---|
explicacoescontrastivasselecaoobjetivos.pdf | 666,2 kB | Adobe PDF | Visualizar/Abrir |
Este item está licenciada sob uma Licença Creative Commons