terça-feira, 28 de maio de 2024

O que queremos da Inteligência artificial (IA)?

A resposta para esta pergunta parece trivial à primeira vista, mas é de elevada complexidade por causa da abrangência das respostas. Basicamente a resposta depende das expectativas e esperanças das pessoas em relação à tecnologia.

 

É possível encontrar na sociedade respostas que vão desde a solução da desigualdade econômica no Brasil até a explicação de uma solução de um problema de matemática.

 

A abrangência das respostas depende do que está incomodando as pessoas e a sociedade naquele momento. Um estudante em dificuldade em um determinado assunto, busca uma IA que tire as suas dúvidas, uma pessoa que está planejando as suas férias, busca uma IA que ofereça roteiros dentro do seu orçamento e do seu desejo e assim sucessivamente.

 

É muito difícil encontrar respostas que direcionem a criação de uma política pública em um ambiente em que as pessoas desconhecem o que a inteligência artificial é capaz de fazer.

 

Estamos falando de uma tecnologia muito nova em que os limites estão sendo superados todos os dias e novas aplicações estão sendo criadas em alta velocidade.

 

Para criar uma política pública para a inteligência artificial é mais fácil responder à pergunta: “O que nós não queremos que a IA faça”.

 

É fácil perceber que a sociedade vai responder que não quer que a IA seja usada para criar conteúdo que engane as pessoas, ou em outras palavras, as pessoas querem que o conteúdo criado pela inteligência artificial tenha uma marca indelével que revele para todos de forma explicita e fácil que é um conteúdo criado pela tecnologia.

 

Não importa se o conteúdo é um texto, uma fala, uma imagem um vídeo etc. Se ele foi criado usando uma IA então tal fato deve ser explicitado para todos que o acessarem.

 

Basicamente, uma inteligência artificial é formada por dois componentes. Um é o algoritmo e o outro é o seu treinamento.

 

O algoritmo é o segredo industrial do desenvolvedor da IA e, portanto, é a sua vantagem competitiva, isto significa que ele não será divulgado para o mercado.

 

No entanto, o treinamento da IA e o seu respectivo processo não é um segredo e nem representa uma vantagem competitiva, ou seja, para que exista uma boa política de governança da IA ele pode e deve ser divulgado para a sociedade.

 

É no treinamento, que aparece um dos principais aspectos que a política pública de IA deve abordar. As falhas no treinamento podem gerar um sistema inteligente preconceituoso e enganoso.

 

A pergunta que não quer calar é quem é o responsável por respostas inadequadas de uma inteligência artificial? É o desenvolvedor, é o treinador ou são ambos?

 

O desenvolvedor é responsável pelo algoritmo (modelo matemático, sistemas de equações etc.), ou seja, pelos seus acertos e erros e o treinador é responsável pela seleção do conteúdo usado no treinamento.

 

É importante destacar neste momento, que um processo de treinamento realizado com conteúdo inapropriado gera respostas inapropriadas pela IA.

 

Responsabilizar o desenvolvedor e o treinador pelas respostas da IA é o mesmo que não responsabilizar ninguém, pois as barreiras entre eles são bastante tênues e difíceis de separar.

 

Quando o treinador seleciona conteúdo sem respeitar os direitos autorais, intelectuais, de imagem etc. é fácil perceber onde ocorreram as violações e quem é o responsável.

 

No entanto, é uma situação muito específica que não resolve o problema de quem é o responsável pelas respostas de uma inteligência artificial.

 

Neste caso, a política pública deve escolher arbitrariamente um responsável entre o desenvolver e treinador. O responsável assume tanto os benefícios, quanto os malefícios gerados pelas respostas da inteligência artificial.

Nenhum comentário:

Postar um comentário