Semear ideias para uma inteligência artificial responsável
por Elen Nas, pós-doutoranda da Cátedra Oscar Sala
“A Inteligência Artificial Responsável não é uma palavra da moda. É um compromisso de tornar
o mundo um lugar melhor.” - Ricardo Baeza-Yates em palestra na Academia Europaea, 2022
A proliferação das aplicações em inteligência artificial (IA) e seus usos nos mais diversos contextos da sociedade ampliaram a necessidade de um debate ético, de onde emerge o conceito IA responsável (IAR), tema proposto pelo titular Virgílio Almeida para ser o centro dos estudos da Cátedra Oscar Sala no ano de 2024.
Após nove meses de interações, os grupos de pesquisadores da cátedra apresentaram trabalhos e perspectivas sobre temas específicos de suas áreas de atuação em seminário realizado nos dias 15 e 16 de outubro no IEA.
A conferência de abertura realizada por Almeida enfatizou a necessidade premente de governança sobre a IA, já que vivemos – cada vez mais – em uma sociedade híbrida, na qual humanos são mediados por decisões automatizadas, precisando interagir com agentes artificiais capazes de influenciar em novas formas de sociabilidade.
Ele demonstrou os dados de aceleração das tecnologias de IA e suas aplicações e apresentou exemplos de danos causados pela IA. Ao lembrar que o cenário da governança permanece em aberto, reforçou ser necessário o fomento à pesquisa, desenvolvimento, assim como as trocas de ideias através de encontros e publicações.
Com uma série de artigos publicados no Jornal da USP, os pesquisadores – divididos em grupos de trabalho (GTs) temáticos – tiveram oportunidade de expor ideias em fase de germinação, que confluíram, junto aos seus estudos e publicações, na realização do seminário. O encontro foi uma etapa preparatória para o projeto de publicação de um livro sobre IA responsável.
A primeira mesa, do GT IAR e Trabalho, teve como convidado Rafael Grohman, da Universidade de Toronto, Canadá, que ressaltou a necessidade de estarmos atentos aos possíveis adestramentos, que podem resultar em um sequestro da imaginação. Uma vez que a regulação caminha mais lentamente que as iniciativas de implementação da IA, há também a possibilidade de resistência através de ativismo. Ele lembrou também o direito à recusa, já que nem para todo problema a resposta é uma tecnologia.
O debate sobre IAR e Governo contou com a presença de Christian Perrone, do Centro de Estudos em Tecnologia e Sociedade da Universidade de San Andrés, Argentina. Com uma posição mais moderada, o pesquisador defendeu que a regulação deveria focar nos casos de maior risco, deixando o mercado e determinadas áreas mais à vontade para desenvolver e disponibilizar as IAs. Essa posição foi contestada por pessoas na audiência, que defendem que não estão claros os possíveis riscos mesmo onde a IA parece inofensiva. Historicamente, o cenário de inovação tecnológica tanto desperta reações tecnofóbicas como estimula um entusiasmo excessivo e tecnofilia. Em ambos os casos se movem preferências e paixões que se distanciam de reflexões ponderadas quando o assunto é aplicar responsabilidade sobre a invenção.
Na mesa IA e Justiça, o coordenador adjunto da Cátedra, Luiz Fernando Martins Castro, afirmou que diferentemente de décadas atrás, a pesquisa da IA atual tem dirigido os holofotes para pesquisadores iniciantes frente à necessidade premente de respostas para regulação. A convidada Tainá Junquilho, assessora no Senado Federal, apresentou o documentário “Juris Máquina”, que é fruto da sua pesquisa de doutorado e consiste em uma série de entrevistas sobre a IA e os desafios de regulamentação. O filme, por trazer muitas vozes de diferentes setores ao debate sobre os desafios jurídicos da IA, desloca o que seria uma discussão técnica sobre como aplicar a lei para o lugar de entender a amplitude do tema a partir de perspectivas distintas.
Na primeira mesa sobre IA e Educação, as pesquisadoras apresentaram os trabalhos produzidos durante o período, que envolveram artigos e ações de engajamento e difusão da informação, como minicursos, entrevistas e criação de um website. Durante o debate, foi levantado que os projetos de IA relacionados aos grandes modelos de linguagem apareceram com forte impacto, de maneira súbita, de modo que o ambiente da educação não teve tempo e oportunidades de um preparo mais consciente e robusto. É, portanto, um desafio maior estudar, pesquisar, entender e gerar pensamento crítico, visto que é uma tecnologia de grande alcance e impacto na educação e que já chega pronta.
Eles trataram também do problema da vigilância nas escolas, por meio de câmeras e fotografias, com intuito de monitorar os humores dos alunos dentro das classificações da computação afetiva. O tema causou espanto e desagrado na audiência.
A segunda mesa de educação convidou estudantes de mestrado e doutorado para apresentar seus trabalhos sobre IA. Assim, o seminário permitiu a escuta dos agentes de pesquisa dentro de uma diversidade de perfis e interesses, sendo o objetivo estar junto, gerando ondas que envolvam as pessoas em práticas coletivas. Dentro de um mundo complexo, onde nem tudo é previsível, quando falamos de responsabilidade estamos falando de ética e, desse modo, valorizamos ações de estímulo à coletividade.
O grupo de IA, Comunicação e Artes apresentou os textos produzidos e trouxe como convidada Bruna Martins dos Santos, do Fórum de Governança da Internet na ONU. Ela destacou a posição estratégica do Brasil no tema da IAR e que o assunto da regulamentação continua um campo de discussão em aberto com muitas dúvidas.
O GT IAR e Saúde optou por fazer uma mesa-redonda, entrevistando os convidados Márcio Biczyk do Amaral, da Faculdade de Medicina da USP, Monise Picanço, do Cebrap, e Rodrigo Brandão, do Cetic.br. Amaral elucidou questões sobre o uso de dados, enquanto Rodrigo e Monise apresentaram um estudo publicado pelo Cetic, realizado com profissionais da saúde, representantes do mercado e academia, sobre a questão da IA na saúde. Nele, identificaram uma descentralização – não exatamente benéfica – do ponto de vista da regulação.
Nesse caso, perceberam que, na prática, as interações e aplicações dessas tecnologias resultam em “cada um fazendo do seu jeito”. Outro aspecto que destacaram é que a ética é vista como algo relacionado apenas à esfera individual. E este é um fator que tenderá a reforçar a ideia de que as tecnologias são neutras: nas mãos erradas, irão gerar danos; nas mãos certas, proporcionarão benefícios.
O seminário terminou com o grupo IA e Gênero, que apresentou o conteúdo do texto produzido. Os membros reforçaram que as tecnologias não são neutras, à medida que são geridas e, em grande parte, produzidas a partir de um recorte de gênero, etnias e classe, dentre outros fatores. A mesa teve como convidada Joana Varon, fundadora do Coding Rights. Ela destacou a necessidade de difundir perspectivas decoloniais, feministas, antirracistas e ecológicas na compreensão da IA.
Assim, entendendo que responsabilidade é garantir diversidade e cumprimento da lei em seus aspectos essenciais, como os direitos da pessoa humana e da terra no bem viver e coexistir, os desafios da IAR vão além dos esforços de regulamentação. É sobre que mundo queremos, como queremos e o que estamos dispostos a abrir mão para que ele seja possível.