Repensando a segurança da inteligência artificial com base na confiança
Proteção contra a discriminação algorítmica
DOI:
https://doi.org/10.15448/1984-6746.2024.1.45911Palavras-chave:
inteligência artificial, segurança, confiança, discriminação algorítmica, lógica interseccional.Resumo
A rápida ascensão da inteligência artificial (IA) levanta desafios éticos, especialmente relacionados à confiança depositada nessa tecnologia e suas implicações para diversos grupos demográficos. Este texto adota uma abordagem filosófica fenomenológica e hermenêutica, fundamentada em Husserl e Heidegger, para explorar a segurança existencial da IA e sua conexão com a confiança. A confiança na IA é examinada não apenas como uma questão técnica, mas como um fenômeno ligado a dinâmicas sociais complexas, desafiando a reflexão sobre influências discriminatórias nos sistemas inteligentes. O referencial teórico incorpora contribuições recentes sobre confiança na IA para intensificar a produção de literatura sobre segurança da IA com base na confiança, e interage com o Código de Conduta Internacional do Processo de Hiroshima para Sistemas Avançados de AI.
Downloads
Referências
AHMED, Shazeda; JAŹWIŃSKA, Klaudia; AHLAWAT, Archana; WINECOFF, Amy; WANG, Mona. Building the Epistemic Community of AI Safety. Social Science Research Network (SSRN), New York, Nov. 22, 2023. Disponível em: <http://dx.doi.org/10.2139/ssrn.4641526>. Acesso em: 02 dez. 2023.
BACHELARD, Gaston. Le nouvel esprit scientifique. Paris: Presses Universitaires de France, 1934.
COMISSÃO EUROPEIA. Código de Conduta Internacional do Processo de Hiroshima para Sistemas Avançados de Inteligência Artificial. Bruxelas, 30 out. 2023. Disponível em: <https://digital-strategy.ec.europa.eu/en/library/hiroshima-process-international-code-conduct-advanced-ai-systems>. Acesso em: 10 nov. 2023.
CORRÊA, Nicholas. K.; GALVÃO, Camila; SANTOS, James W., DEL PINO, Carolina.; PINTO, Edson P.; BARBOSA, Camila; MASSMANN, Diogo; MAMBRINI, Rodrigo; GALVÃO, Luíza; TEREM, Edmund; OLIVEIRA, Nythamar (2023). Worldwide AI ethics: A review of 200 guidelines and recommendations for AI governance. Patterns, v. 4, n. 10, p. 1-15, 2023. Disponível em: <https://doi.org/10.1016/j.patter.2023.100857>. Acesso em: 30 de nov. 2023.
DREYFUS, Hubert L. What Computers Still Can’t Do: A critique of Artificial Reason. Cambridge: MIT Press, 1992.
DREYFUS, Hubert L. “Why Heideggerian Artificial Intelligence failed and how fixing it would require making it more”. Heideggerian. Philosophical Psychology, Abingdon, v. 20, n. 2, p. 247-268, 2007.
DRUMMOND, John; TIMMONS Mark. Moral Phenomenology, The Stanford Encyclopedia of Philosophy (Fall 2023 Edition). ZALTA, Edward N. & NODELMAN, Uri (Eds.). Disponível em: <https://plato.stanford.edu/archives/fall2023/entries/moral-phenomenology/>. Acesso em 1º mar. de 2024.
GOHAR, Usman; CHENG, Lu. A Survey on Intersectional Fairness in Machine Learning: Notions, Mitigation, and Challenges. In: Proceedings of the Thirty-Second International Joint Conference on Artificial Intelligence, (JCAI-23). International Joint Coferences on Artificial Intelligence Organization, 2023. Disponível em: <https://doi.org/10.24963/ijcai.2023/742>. Acesso em: 20 nov. 2023.
HEIDEGGER, Martin. A questão da técnica. Scientiæ Studia v. 5, n. 3, p. 375-398, 2007.
HEIDEGGER, Martin. Contribuições à Filosofia (Do Acontecimento Apropriador). Rio de Janeiro: Via Verita, 2015.
HUSSERL, Edmund. A filosofia como ciência de rigor. Coimbra: Atlântida, 1965.
HUSSERL, Edmund. A crise das ciências europeias e a fenomenologia transcendental: um a introdução à filosofia fenomenológica. BIEMEL, Walter (Ed.). Rio de Janeiro: Forense Universitária, 2012.
JACOVI, Alon; MARASOIC, Ana; MILLER, Miller; and GOLDBERG, Yoav. Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and Goals of Human Trust in AI. In: ACM Conference on Fairness, Accountability, and Transparency (FAccT), 2021, New York. [Proceedings of the…]. Fremont: Association for Computing Machinery (ACM), 2021. Disponível em: <https://doi.org/10.1145/3442188.3445923>. Acesso em: 30 nov. 2023.
KNOWLES, Bran; FLEDDERJOHANN, Jasmine; RICHARDS, John. T., & VARSHNEY, Kush. R. (2023). Trustworthy AI and the Logics of Intersectional Resistance. In: ACM Conference on Fairness, Accountability, and Transparency (FAccT), 2023, New York. [Proceedings of the …] Fremont: Association for Computing Machinery. Disponível em <https://doi.org/10.1145/3593013.3593986>. Acesso em: 09 out. 2023.
MANHEIM, David. Building a Culture of Safety for AI: Perspectives and Challenges Social Science Research Network (SSRN), New York, Jun. 26, 2023. Disponível em: <https://ssrn.com/abstract=4491421>. Acesso em: 20 out. 2023.
PÉREZ Y MADRID, Aniceto; WRIGHT, Connor. Trustworthy AI Alone Is Not Enough. Madri: Editorial Dykinson, 2023. Disponível em: https://hdl.handle.net/10016/3. Acesso em: 30 nov. 2023.
REINO UNIDO. Online Safety Act 2023. CHAPTER 50, UK Public General Acts. Norwich - England, 2023. Disponível em: <https://www.legislation.gov.uk/ukpga/2023/50/enacted>. Acesso em: 15 nov. 2023.
SEN, Amartya. A ideia de justiça. São Paulo: Companhia das Letras, 2011.
SINGH, Richa; VATSA, Mayank; and RATHA, Nalini. Trustworthy AI. In: 3rd ACM India Joint International Conference on Data Science & Management of Data (8th ACM IKDD CODS & 26th COMAD), 2021, New York. [Proceedings of the…]. Fremont: Association for Computing Machinery. Disponível em: <https://doi.org/10.1145/3430984.3431966>. Acesso em: 30 nov. 2023.
WACHTER, Sandra; MITTELSTADT, Brent; RUSSELL, Chris. Why Fairness Cannot Be Automated: Bridging the Gap Between EU Non-Discrimination Law and AI. Computer Law & Security Review, v. 41, 2021. Disponível em: <http://dx.doi.org/10.2139/ssrn.3547922>. Acesso em: 10 ago. 2023.
WHITE HOUSE. Fact Sheet: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence. Washington, 30 out. 2023. Disponível em: <https://www.whitehouse.gov/briefing-room/statements-releases/2023/10/30/fact-sheet-president-biden-issues-executive-order-on-safe-secure-and-trustworthy-artificial-intelligence/>. Acesso em: 15 nov. 2023.
Downloads
Publicado
Como Citar
Edição
Seção
Licença
Copyright (c) 2024 Veritas (Porto Alegre)
Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.
Direitos Autorais
A submissão de originais para a Revista Veritas implica na transferência, pelos autores, dos direitos de publicação. Os direitos autorais para os artigos publicados nesta revista são do autor, com direitos da revista sobre a primeira publicação. Os autores somente poderão utilizar os mesmos resultados em outras publicações indicando claramente a Revista Veritas como o meio da publicação original.
Licença Creative Commons
Exceto onde especificado diferentemente, aplicam-se à matéria publicada neste periódico os termos de uma licença Creative Commons Atribuição 4.0 Internacional, que permite o uso irrestrito, a distribuição e a reprodução em qualquer meio desde que a publicação original seja corretamente citada. Copyright: © 2006-2020 EDIPUCRS