Projeto IA Responsável
Veja também: |
---|
O foco da Cátedra Oscar Sala é aprofundar o conhecimento num conjunto de questões fundamentais para a compreensão da convivência social e operacional entre humanos e não humanos, representados por algoritmos, robôs e dispositivos inteligentes. Dentro desse contexto, no projeto IA Responsável serão explorados aspectos teóricos, técnicos, sociais, legais e institucionais relativos às aplicações de inteligência artificial, seus impactos, e como a sociedade civil e comunidade científica poderão intervir para que a IA seja implementada de maneira responsável.
O foco das investigações e trocas acadêmicas durante o período da Cátedra é compreender como os sistemas de inteligência artificial e seus designs operam e influenciam decisões e visões sobre o mundo em suas mais diversas esferas, desde a saúde, trabalho, educação, arte, cultura e identidades. Para que a sociedade possa construir mecanismos de governança digital, de forma a colher benefícios e minimizar impactos negativos dos avanços tecnológicos, é necessário ampliar o debate interdisciplinar, disseminar conhecimento e promover acesso à informação de modo a cultivar um terreno no qual a sociedade e comunidade acadêmica desenvolva um senso propositivo e participativo junto aos sistemas de governança da internet.
O estudo da IA Responsável requer múltiplos conhecimentos, que vêm de áreas como ciências sociais e humanas, ciência da computação, engenharias e artes, direito e ciências da saúde.
O acompanhamento crítico dessas atividades é feito por um grupo de estudos organizados em GTs (Grupos de Trabalho) dentro das áreas de maior interesse e atuação dos pesquisadores. São elas: “IA e Trabalho”, “IA, Comunicação e Artes”, “IA e Governo”, “IA e Justiça”, “IA e Educação”, “IA e Saúde” e “IA e Gênero”. Adicionalmente foi formado um grupo de estudos paralelo dedicado à confecção de uma Carta de Recomendações para o emprego da IA Responsável”, que será discutida e assinada pelos pesquisadores da Cátedra Oscar Sala, aberta a adesões.
Perfil dos pesquisadores
Tópicos
Além dos tópicos listados abaixo, apresentados no período anterior dedicado ao entendimento das relações humano-algoritmo, o tema da IA Responsável inclui especial atenção para: Transparência na IA, Accountability (ou Prestação de Contas pela IA), Fairness (ou IA e Justiça), Safety (ou Segurança da IA).
• Natureza das interações humanas com algoritmos, robôs, dispositivos e máquinas inteligentes;
• Papel do "design" na construção de algoritmos e máquinas inteligentes (ex. assistentes inteligentes como Alexa e chatbots);
• Estudo do comportamento de não humanos: algoritmos, robôs, dispositivos e máquinas inteligentes (ex.: estudos empíricos e modelos teóricos);
• Estudo do comportamento humano nas relações com não humanos: individual e coletivo;
• Regulação e governança;
• Algoritmos e sua aderência a direitos humanos;
• Debate sobre as formas de colaboração humano-algoritmos e os impacto no trabalho;
• Debate sobre o papel dos agentes eletrônicos inteligentes, como por exemplo se eles devem receber alguma consideração moral e legal como outras entidades que interagem socialmente.
• Estudos de casos da realidade brasileira, como parte do processo de pesquisa dos tópicos acima, como por exemplo casos na área de saúde, casos sobre impacto da automação de processos no comércio e serviços.
Subtemas e Subgrupos:
O conjunto de subtemas para estudos e debates no ano letivo 2023/24 é claramente multidisciplinar e transdisciplinar pois a compreensão do papel e do impacto de algoritmos e máquinas inteligentes requer a participação de pesquisadores de ciências sociais e humanas, direito, engenharia e ciência da computação. A Inteligência Artificial Responsável é um tema emergente que se torna um framework desafiante para as diversas áreas de impacto social tendo assim despertado interesse em um grande número de pesquisadores qualificados e já atuantes no mercado de trabalho.
IA, Comunicação e Artes
IA e Educação GT-1
IA e Educação GT-2
IA e Educação GT-3
IA e Educação GT-4
IA e Gênero
IA e Governo GT-1
IA e Governo GT-2
IA e Governo GT-3
IA e Justiça GT-1
IA e Justiça GT-2
IA e Justiça GT-3
GT Carta de Recomendações para a IAR da Cátedra Oscar Sala
Resultados esperados
1. Os encontros deverão produzir resultados a serem publicados pelos pesquisadores em diferentes midias. Os grupos de estudos deverão ser necessariamente multidisciplinares. Seus participantes serão incentivados a submeterem artigos referentes aos debates para periódicos e conferências de qualidade.
3. Será estimulada a participação de pesquisadores e estudantes de universidades fora de São Paulo nos grupos de estudo.
4. Os grupos de pesquisas serão estimulados a trabalhar com estudos de casos da realidade brasileira.
5. O trabalho gerará um relatório final a ser publicado pelo Instituto de Estudos Avançados em formato impresso e audiovisual.
Cronograma
29 de novembro/23 |
Abertura com o Professor Virgílio Almeida: Conceitos e modelos de IA Responsável |
8 de dezembro/23 |
Reunião do grupo de estudo: Organização dos Grupos |
19 de dezembro/23 |
Apresentação do Professor Valdinei Freire (USP e C4AI) e do grupo de estudo: IA e Educação GT1 e IA, Comunicação e Artes |
17 de janeiro/24 |
Apresentação do grupo de estudo: IA e Trabalho (início dos estudos dos relatórios e normas para a IA Responsável, neste dia, RAI nas Empresas apresentado por Elen Nas) |
2 de Fevereiro |
Reunião do Grupo de Estudos para a Carta de Princípios da IAR: Apresentação Atahualpa Fidel Perez Blanchet Coelho |
16 de Fevereiro/24 |
Reunião do Grupo de Estudos para a Carta de Princípios da IAR: Apresentação Silvia Piva, Rubem Konig e Renata Otake |
21 de Fevereiro |
Palestra as 9h com Robert Sparrow (IA Amigável) |
23 de Fevereiro |
Apresentação do Grupo IA e Governo (GT1) |
1 de Março |
Reunião do Grupo de Estudos para a Carta de Princípios da IAR: Apresentação Marcelo Nery (IA na Segurança Pública) e Carolina Christofoletti (IA e a proteção da criança e adolescente) |
8 de março/24 |
Reunião de atualização dos grupos de estudo |
22 de março/24 |
Apresentação do Grupo IA e Justiça |
05 de Abril/24 |
Apresentação do Grupo IA e Gênero |
19 de abril/24 |
Apresentação do Grupo IA e Saúde |
26 de abril/24 |
Reunião do grupo de estudo: Apresentações dos Grupos de Estudo |
Novas Datas |
Agendamento de Palestras com convidados e Reuniões dos GTs |