A resposta
para esta pergunta parece trivial à primeira vista, mas é de elevada
complexidade por causa da abrangência das respostas. Basicamente a resposta depende
das expectativas e esperanças das pessoas em relação à tecnologia.
É possível
encontrar na sociedade respostas que vão desde a solução da desigualdade econômica
no Brasil até a explicação de uma solução de um problema de matemática.
A abrangência
das respostas depende do que está incomodando as pessoas e a sociedade naquele
momento. Um estudante em dificuldade em um determinado assunto, busca uma IA
que tire as suas dúvidas, uma pessoa que está planejando as suas férias, busca
uma IA que ofereça roteiros dentro do seu orçamento e do seu desejo e assim
sucessivamente.
É muito difícil
encontrar respostas que direcionem a criação de uma política pública em um
ambiente em que as pessoas desconhecem o que a inteligência artificial é capaz
de fazer.
Estamos falando
de uma tecnologia muito nova em que os limites estão sendo superados todos os
dias e novas aplicações estão sendo criadas em alta velocidade.
Para criar
uma política pública para a inteligência artificial é mais fácil responder à
pergunta: “O que nós não queremos que a IA faça”.
É fácil perceber
que a sociedade vai responder que não quer que a IA seja usada para criar conteúdo
que engane as pessoas, ou em outras palavras, as pessoas querem que o conteúdo criado
pela inteligência artificial tenha uma marca indelével que revele para todos de
forma explicita e fácil que é um conteúdo criado pela tecnologia.
Não importa
se o conteúdo é um texto, uma fala, uma imagem um vídeo etc. Se ele foi criado
usando uma IA então tal fato deve ser explicitado para todos que o acessarem.
Basicamente,
uma inteligência artificial é formada por dois componentes. Um é o algoritmo e
o outro é o seu treinamento.
O algoritmo
é o segredo industrial do desenvolvedor da IA e, portanto, é a sua vantagem
competitiva, isto significa que ele não será divulgado para o mercado.
No entanto,
o treinamento da IA e o seu respectivo processo não é um segredo e nem
representa uma vantagem competitiva, ou seja, para que exista uma boa política
de governança da IA ele pode e deve ser divulgado para a sociedade.
É no
treinamento, que aparece um dos principais aspectos que a política pública de
IA deve abordar. As falhas no treinamento podem gerar um sistema inteligente preconceituoso
e enganoso.
A pergunta
que não quer calar é quem é o responsável por respostas inadequadas de uma inteligência
artificial? É o desenvolvedor, é o treinador ou são ambos?
O desenvolvedor
é responsável pelo algoritmo (modelo matemático, sistemas de equações etc.), ou
seja, pelos seus acertos e erros e o treinador é responsável pela seleção do conteúdo
usado no treinamento.
É importante
destacar neste momento, que um processo de treinamento realizado com conteúdo inapropriado
gera respostas inapropriadas pela IA.
Responsabilizar
o desenvolvedor e o treinador pelas respostas da IA é o mesmo que não responsabilizar
ninguém, pois as barreiras entre eles são bastante tênues e difíceis de
separar.
Quando o
treinador seleciona conteúdo sem respeitar os direitos autorais, intelectuais,
de imagem etc. é fácil perceber onde ocorreram as violações e quem é o responsável.
No entanto,
é uma situação muito específica que não resolve o problema de quem é o responsável
pelas respostas de uma inteligência artificial.
Neste caso, a política pública deve escolher arbitrariamente um responsável entre o desenvolver e treinador. O responsável assume tanto os benefícios, quanto os malefícios gerados pelas respostas da inteligência artificial.