Quarta-feira, 06 de maio de 2026
Por Redação do Jornal O Sul | 27 de novembro de 2022
No fim de junho, a Microsoft lançou um novo tipo de tecnologia de inteligência artificial que poderia gerar seu próprio código de computador. Chamada de Copilot, a ferramenta foi desenvolvida para agilizar o trabalho de programadores profissionais.
Enquanto eles digitavam em seus laptops, a ação criava blocos de código de computador prontos que eles poderiam adicionar instantaneamente.
Muitos programadores adoraram a nova ferramenta ou pelo menos ficaram intrigados com ela. Mas Matthew Butterick, programador, designer, escritor e advogado de Los Angeles, não era um deles. Este mês, Butterick e um grupo de advogados entraram com uma ação contra a Microsoft e outras empresas de tecnologia que projetaram e implantaram o Copilot.
Butterick deu entrada em uma class action, modalidade prevista no direito americano na qual alguém que se sente lesado conclama outras pessoas na mesma situação a aderirem no processo.
Como muitas tecnologias de IA de ponta, o Copilot desenvolveu suas habilidades analisando grandes quantidades de dados. Nesse caso, contou com bilhões de linhas de código de computador postadas na internet. Butterick, de 52 anos, compara esse processo à pirataria, pois argumenta que o sistema não reconhece sua semelhança com um trabalho já previamente existente.
No processo judicial, Butterick alega que a Microsoft e seus colaboradores violaram os direitos legais de milhões de programadores que passaram anos escrevendo os códigos originais nos quais o Copilot se baseia.
Acredita-se que a ação seja o primeiro ataque legal a uma técnica de design chamada “treinamento de inteligência artificial”, que está prestes a refazer a indústria de tecnologia. É uma versão em inteligência artificial de um processo conhecido como machine learning, ou aprendizagem de máquina, na qual os sistemas aprendem ao serem usados a partir de outros sistemas.
Nos últimos anos, muitos artistas, escritores, especialistas e ativistas de privacidade reclamaram que as empresas estão treinando seus sistemas de inteligência artificial usando dados que não lhes pertencem.
E o processo judicial de agora ecoa dilemas que a própria indústria de tecnologia teve que lidar no passado. Nos anos 1990 e 2000, a Microsoft à ascensão do open source (software de código aberto, modelo de programação que pode ser feito de forma colaborativa), vendo-o como uma ameaça existencial ao futuro de seus negócios.
Mas, à medida que a importância do código aberto crescia, a Microsoft incorporou o processo e comprou o GitHub, uma plataforma de hospedagem de código-fonte, na qual programadores constroem, armazenam e compartilham suas linhas de programação.
Quase todas as novas gerações de tecnologia – até mesmo os mecanismos de busca on-line – enfrentaram desafios legais semelhantes. Frequentemente, “não há estatuto ou jurisprudência que cubra isso”, explica Bradley J. Hulbert, um advogado de propriedade intelectual especializado nesta área cada vez mais importante da lei.
E há uma crescente onda de preocupação com a inteligência artificial. Artistas, escritores, compositores e outros profissionais temem cada vez mais que empresas e pesquisadores estejam usando seu trabalho para criar novas tecnologias sem seu consentimento e sem fornecer compensação financeira por isso.
As empresas treinam uma ampla variedade de sistemas dessa maneira, incluindo softwares que criam arte, programas de reconhecimento de fala, como Siri e Alexa, e até carros sem motorista.