Utilize este identificador para referenciar este registo: https://hdl.handle.net/1822/92792

TítuloExplainable AI in fraud detection based on human behaviour
Autor(es)Barbosa, Pedro Miguel de Soveral Pacheco
Orientador(es)Novais, Paulo
Ribeiro, André Pimenta
Palavras-chaveArtificial Intelligence
Machine learning
Explainable AI
Fraud detection
Human behaviour
Inteligência Artificial
Deteção de fraude
Comportamento Humano
Data7-Dez-2023
Resumo(s)In recent years, Artificial Intelligence has prospered to such an extent that it is present in our daily lives through the different technologies we use. This fact is evident, for example, in fraud detection in online purchases or games, which has been increasingly precise and has undergone an exponential evolution as never seen before. However, the use of decision-making oriented by Artificial Intelligence and Machine Learning generates transparency concerns. Moreover, the need for explainability arises when Machine Learning models are manipulated in order to ensure fairness or to deliberate on decisions of greater importance. This paper proposes an approach to the general problem of explaining the decisions made by Machine Learning models through the use of Explainable AI methods. The main goal is to develop a decision support solution applied to fraud detection based on human behaviour by exploring techniques that can help explain the results of Machine Learning models and also make them more transparent.
Nos últimos anos, a Inteligência Artifical prosperou de tal modo que se encontra presente no nosso dia a dia através das diferentes tecnologias que utilizamos. Tal facto evidencia-se, por exemplo, na deteção de fraudes em compras ou em jogos online, que tem sido cada vez mais precisa e sofrido uma evolução exponencial como nunca antes visto. No entanto, a utilização de decisões orientadas por Inteligência Artificial e Machine Learning gera preocupações quanto à transparência. Para além disso, a necessidade de explicabilidade surge quando os modelos de Machine Learning são manipulados com o intuito de garantir justiça ou deliberar sobre decisões com maior teor de importância. O presente documento propõe uma abordagem ao problema geral de explicar as decisões tomadas por modelos de Machine Learning, através da utilização de métodos de Explainable AI. Desta forma, o principal objetivo é o desenvolvimento de uma solução de suporte a decisões aplicada à deteção de fraudes baseada em comportamento humano, através da exploração de técnicas que possam ajudar a explicar e tornar mais transparentes os resultados dos modelos de Machine Learning.
TipoDissertação de mestrado
DescriçãoDissertação de mestrado em Informatics Engineering
URIhttps://hdl.handle.net/1822/92792
AcessoAcesso restrito autor
Aparece nas coleções:BUM - Dissertações de Mestrado
DI - Dissertações de Mestrado

Ficheiros deste registo:
Ficheiro Descrição TamanhoFormato 
Pedro Miguel de Soveral Pacheco Barbosa.pdf
  Até 2026-12-07
Dissertação de mestrado4,18 MBAdobe PDFVer/Abrir

Este trabalho está licenciado sob uma Licença Creative Commons Creative Commons

Partilhe no FacebookPartilhe no TwitterPartilhe no DeliciousPartilhe no LinkedInPartilhe no DiggAdicionar ao Google BookmarksPartilhe no MySpacePartilhe no Orkut
Exporte no formato BibTex mendeley Exporte no formato Endnote Adicione ao seu ORCID