1. Não é excessiva a atenção dada à disseminação do ChatGPT e de aplicações semelhantes, em consequência dos desenvolvimentos tecnológicos dos últimos anos e da sua difusão viral pelo mundo empresarial e pelo público em geral nos últimos seis meses.
Os “modelos fundacionais” (foundation models), assentes em enormes massas de dados, são capazes de gerar texto, imagem, som, vídeo ou mesmo programação (código), daí que se fale de “inteligência artificial generativa” (GenAI). A qualidade dos conteúdos gerados é crescente, ainda que não isentos de enviesamento (bias) imprecisões e mesmo “alucinações”, ou respostas absurdas ou inventadas. No plano prático, um dos aspetos que diferencia estes modelos dos que predominavam anteriormente é a sua aptidão para serem adaptados a múltiplas aplicações, contextos e finalidades.
As grandes tecnológicas (big tech), como a Microsoft, a Google ou a Meta, realizam investimentos milionários. Inúmeras empresas apostam em aplicações adaptadas aos respetivos setores, da saúde à educação, da advocacia à comunicação social, da arte ao gaming. Grande parte das novas startups dedica-se a tentar mobilizar as virtualidades da IA generativa a novas aplicações.
2. Neste contexto, é urgente distinguir factos (a IA generativa tem um enorme potencial transformador e envolve riscos consideráveis) – de mitos (a IA generativa vai dominar a humanidade, vai eliminar o trabalho humano).
É também essencial colocar questões.
Por um lado, relativamente aos dados com que estes modelos são alimentados: quais são os limites à utilização de conteúdos protegidos por propriedade intelectual e direito de autor? Qual o grau de liberdade dos indivíduos relativamente ao uso para este efeito dos respetivos dados pessoais? Como garantir a qualidade e a segurança dos dados e como evitar que os sistemas se alimentem de dados gerados com erro, enviesamento ou alucinações?
Também pelo que toca aos conteúdos gerados: como evitar o uso destes modelos para fins contrários à lei, aos direitos humanos e ao bem comum da humanidade, sem limitar arbitrariamente a liberdade nem condicionar ideologicamente os resultados? Deverá atribuir-se algum tipo de proteção (direitos de propriedade intelectual) a conteúdos gerados total ou parcialmente com IA generativa, tais como obras artísticas, literárias ou código?
Certamente quanto ao potencial económico destes modelos: vão tornar os processos mais rápidos e mais fiáveis ou vão produzir disrupções dos atuais modelos de negócio? Como estender os potenciais benefícios a toda a sociedade, evitando a sua concentração nas organizações públicas ou privadas que dispõem de maior capacidade de investimento e de acesso a dados?
Naturalmente, também quanto aos efeitos sociais: que consequências para o mercado de trabalho? Como vai alterar-se o processo de pesquisa de conhecimento e de aprendizagem, formal ou informal?
3. Vivenciamos um momento histórico de transformação, cujo impacto na realidade das empresas e das comunidades será imenso. Importa decidir se queremos aceitar passivamente as consequências ou, ao invés, ser protagonistas responsáveis e éticos da revolução que se anuncia.
É precisamente sobre a IA generativa, nas suas dimensões tecnológica, empresarial, regulatória e ética que se dedica o próximo ColloquIA, organizado pelo Grupo de Investigação em Direito e IA do Católica Research Centre for the Future of Law e pelo Instituto de Conhecimento da Abreu Advogados. A conferência, marcada para a tarde de 17 de maio, com entrada livre, será uma ocasião para refletir e aprofundar todas estas questões.