Utilize este identificador para referenciar este registo:
https://hdl.handle.net/1822/92792
Título: | Explainable AI in fraud detection based on human behaviour |
Autor(es): | Barbosa, Pedro Miguel de Soveral Pacheco |
Orientador(es): | Novais, Paulo Ribeiro, André Pimenta |
Palavras-chave: | Artificial Intelligence Machine learning Explainable AI Fraud detection Human behaviour Inteligência Artificial Deteção de fraude Comportamento Humano |
Data: | 7-Dez-2023 |
Resumo(s): | In recent years, Artificial Intelligence has prospered to such an extent that it is present in our daily lives
through the different technologies we use. This fact is evident, for example, in fraud detection in online
purchases or games, which has been increasingly precise and has undergone an exponential evolution
as never seen before. However, the use of decision-making oriented by Artificial Intelligence and Machine
Learning generates transparency concerns. Moreover, the need for explainability arises when Machine
Learning models are manipulated in order to ensure fairness or to deliberate on decisions of greater
importance. This paper proposes an approach to the general problem of explaining the decisions made by Machine Learning models through the use of Explainable AI methods. The main goal is to develop a decision support solution applied to fraud detection based on human behaviour by exploring techniques that can help explain the results of Machine Learning models and also make them more transparent. Nos últimos anos, a Inteligência Artifical prosperou de tal modo que se encontra presente no nosso dia a dia através das diferentes tecnologias que utilizamos. Tal facto evidencia-se, por exemplo, na deteção de fraudes em compras ou em jogos online, que tem sido cada vez mais precisa e sofrido uma evolução exponencial como nunca antes visto. No entanto, a utilização de decisões orientadas por Inteligência Artificial e Machine Learning gera preocupações quanto à transparência. Para além disso, a necessidade de explicabilidade surge quando os modelos de Machine Learning são manipulados com o intuito de garantir justiça ou deliberar sobre decisões com maior teor de importância. O presente documento propõe uma abordagem ao problema geral de explicar as decisões tomadas por modelos de Machine Learning, através da utilização de métodos de Explainable AI. Desta forma, o principal objetivo é o desenvolvimento de uma solução de suporte a decisões aplicada à deteção de fraudes baseada em comportamento humano, através da exploração de técnicas que possam ajudar a explicar e tornar mais transparentes os resultados dos modelos de Machine Learning. |
Tipo: | Dissertação de mestrado |
Descrição: | Dissertação de mestrado em Informatics Engineering |
URI: | https://hdl.handle.net/1822/92792 |
Acesso: | Acesso restrito autor |
Aparece nas coleções: | BUM - Dissertações de Mestrado DI - Dissertações de Mestrado |
Ficheiros deste registo:
Ficheiro | Descrição | Tamanho | Formato | |
---|---|---|---|---|
Pedro Miguel de Soveral Pacheco Barbosa.pdf Até 2026-12-07 | Dissertação de mestrado | 4,18 MB | Adobe PDF | Ver/Abrir |
Este trabalho está licenciado sob uma Licença Creative Commons