Para promover esta reflexão, gostaria de citar um dos melhores artigos que li recentemente, escrito pela professora Anna Rogers, do Departamento de Ciência da Computação da Universidade de TI de Copenhague, intitulado "O problema de atribuição com IA generativa" (em inglês, "The attribution problem with generative AI").
Rogers discute a questão da atribuição em modelos de IA gerativos, argumentando que, embora possam ser comparados a motores de busca latentes, existem diferenças fundamentais que tornam essa comparação problemática. De maneira lúcida, ela estabelece uma comparação que destaca como, ao contrário dos motores de busca, os modelos gerativos não fornecem uma fonte clara para as ideias, obras de arte ou trechos de código que geram. Isso cria um problema de atribuição, pois não há ilusão de que qualquer pensamento, obra de arte ou código esteja disponível para ser livremente apropriado como trabalho próprio.
A professora e pesquisadora também aborda a questão da criatividade em modelos gerativos e argumenta que, apesar de serem capazes de gerar conteúdo original, eles ainda estão fundamentalmente otimizados para produzir uma conclusão estatisticamente provável com base no prompt. Logo, a menos que a empresa que comercializa o modelo ofereça garantias de originalidade em casos específicos, acaba transferindo a responsabilidade pelo potencial plágio para seus clientes.
Por fim, Rogers debate a questão do "uso justo". Ela argumenta que, apesar de o "uso justo" parecer uma abordagem razoável para pesquisa acadêmica ou para criadores individuais produzindo conteúdo assistido por IA (com a devida atribuição de fonte), não é disso que se trata a discussão. A questão é sobre o direito das empresas de IA de usar qualquer dado que possam obter para treinar modelos comerciais, sem compartilhar os lucros com os criadores originais ou mesmo informá-los de que seu trabalho foi usado.
Recentemente, o AppCívico tem aplicado o uso de IA em algumas situações, desde de correção de contratos, desenvolvimento de software e testes de segurança.
Nos últimos meses, temos utilizado a IA para aprimorar e validar códigos, especialmente no que tange aspectos de segurança. Quer saber mais sobre este assunto? Fique ligado na nossa newsletter, vamos enviar um artigo com exemplos práticos.
Ademais, desenvolvemos uma política para deixar claro quando e como utilizamos a IA. Você pode ler mais detalhes em nossa política de IA generativa. Nosso objetivo com essa política é fortalecer o uso de IA com base em princípios sólidos. Como todos sabem, todos os dias surgem novas ferramentas de IA e esta tendência não parece diminuir. Se tiver críticas ou sugestões sobre nossa política, compartilhe conosco!
Ao adotar o uso de IA, especialmente IA generativa, sugerimos algumas recomendações a serem consideradas:
Ao seguir estas recomendações, as organizações podem garantir que a IA seja utilizada de forma responsável e eficaz, minimizando os possíveis riscos associados ao uso dessa tecnologia.