Discriminação algorítmica na tomada de decisões automatizadas : a reparação dos danos causados por sistemas de inteligência artificial
Visualizar/abrir
Data
2022Autor
Orientador
Nível acadêmico
Mestrado
Tipo
Assunto
Resumo
O presente trabalho objetiva analisar qual a melhor forma de reparar os danos causados pela ocorrência de discriminação algorítmica em tomada de decisões automatizadas por sistemas de Inteligência Artificial no âmbito privado, como nos setores de seguro e no recrutamento de emprego. Essa problemática surge em função da caraterística de autonomia da Inteligência Artificial, bem como pelo fato dessa tecnologia ser cada vez mais utilizada. O método utilizado foi o dedutivo. Para essa abordagem, o ...
O presente trabalho objetiva analisar qual a melhor forma de reparar os danos causados pela ocorrência de discriminação algorítmica em tomada de decisões automatizadas por sistemas de Inteligência Artificial no âmbito privado, como nos setores de seguro e no recrutamento de emprego. Essa problemática surge em função da caraterística de autonomia da Inteligência Artificial, bem como pelo fato dessa tecnologia ser cada vez mais utilizada. O método utilizado foi o dedutivo. Para essa abordagem, o trabalho foi dividido em duas partes: em um primeiro momento, foram analisados os aspectos gerais a respeito das decisões automatizadas, com destaque para as características da Inteligência Artificial e as formas de se evitar a ocorrência de vieses algorítmicos. Após, foram examinadas as melhores formas de se reparar os danos causados pelo uso de sistemas de Inteligência Artificial, com enfoque no risco da atividade algorítmica e nas soluções discutidas pela doutrina para resolver essa problemática, quais sejam, através de seguros obrigatórios e fundos de compensação e da criação de uma personalidade jurídica. Através do estudo feito, entende-se que os sistemas de Inteligência Artificial não são neutros, podendo gerar resultados discriminatórios ilícitos e abusivos. Embora existam mecanismos para evitar a ocorrência de discriminação algorítmica nas decisões automatizadas previstos na Lei Geral de Proteção de Dados, como o princípio da não discriminação e o direito à revisão, por se tratar de uma problemática nova, a chance de haver discriminação algorítmica se mostra elevada. Contudo, quanto à responsabilidade civil, compreende-se não ser necessária a criação de um regramento específico, ao menos no atual estágio de desenvolvimento da Inteligência Artificial, tendo em vista as cláusulas gerais de responsabilidade civil constantes tanto no Código Civil, quanto no Código de Defesa do Consumidor. ...
Abstract
The present work aims to analyze the best way to repair the damage caused by the occurrence of algorithmic discrimination in automated decision-making by Artificial Intelligence systems in the private sphere, such as in the insurance sectors and in job recruitment. This problem arises due to the autonomy characteristic of Artificial Intelligence, as well as the fact that this technology is increasingly used. The method used was the deductive reasoning. For this approach, the work was divided in ...
The present work aims to analyze the best way to repair the damage caused by the occurrence of algorithmic discrimination in automated decision-making by Artificial Intelligence systems in the private sphere, such as in the insurance sectors and in job recruitment. This problem arises due to the autonomy characteristic of Artificial Intelligence, as well as the fact that this technology is increasingly used. The method used was the deductive reasoning. For this approach, the work was divided into two parts: at first, the general aspects of automated decisions were analyzed, with emphasis on the characteristics of Artificial Intelligence and ways to avoid the occurrence of algorithmic biases. Afterwards, the best ways to repair the damage caused by the use of Artificial Intelligence systems were examined, focusing on the risk of algorithmic activity and on the solutions discussed by the doctrine to solve this problem, namely, through mandatory insurance and compensation funds and the creation of a legal personality. Through the study carried out, it is understood that Artificial Intelligence systems are not neutral and can generate illicit and abusive discriminatory results. Although there are mechanisms to avoid the occurrence of algorithmic discrimination in automated decisions provided for in the General Data Protection Law, such as the principle of non-discrimination and the right to review, as it is a new problem, the chance of algorithmic discrimination appears high. However, regarding civil liability, it is understood that the creation of a specific rule is not necessary, at least in the current stage of development of Artificial Intelligence, in view of the general clauses of civil liability contained both in the Civil Code and in the Code of Defense of the Consumer. ...
Instituição
Universidade Federal do Rio Grande do Sul. Faculdade de Direito. Programa de Pós-Graduação em Direito.
Coleções
-
Ciências Sociais Aplicadas (6061)Direito (782)
Este item está licenciado na Creative Commons License