Com mais de 1.700 assinantes de uma carta aberta que pede a suspensão de testes de inteligência artificial, dentre eles Elon Musk e o CEO da Ripple, Chris Larsen, especialistas pedem que nenhum sistema mais avançado que o ChatGPT 4 seja treinado.
Disponível no Instituto Future of Life, a carta de vários professores e estudiosos da IA procura conter os avanços da tecnologia sem regras.
“Pedimos a todos os laboratórios de IA que parem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4.”
As ameaças da IA no estágio atual, de acordo com a carta, representam riscos graves para a sociedade e humanidade. Vários laboratórios de pesquisas em tecnologia de inteligência artificial concordam e assinam a carta.
Na carta aberta ao público, vários empresários de tecnologia, bilionários, fãs de criptomoedas, entre outros mais, se mostram preocupados com uma evolução da IA que não seja aberta e controlada, ou seja, as chamadas caixas pretas.
O temor envolve testes com IA que possam afetar a qualidade de vida da humanidade, ou a colocar em risco.
Apesar disso, os laboratórios que pesquisam IA não devem suspender totalmente seus estudos sobre a tecnologia, apenas tomar cuidado para que os projetos não percam o controle.
“Isso não significa uma pausa no desenvolvimento da IA em geral, apenas um retrocesso na corrida perigosa para modelos de caixa preta cada vez maiores e imprevisíveis com capacidades emergentes. A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas avançados e poderosos de hoje mais precisos, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.”
Ou seja, a pesquisa deve focar em tornar a IA uma ferramenta que ajuda a humanidade, e não coloca em risco sua sobrevivência.
Vale lembrar que o mercado de criptomoedas observa com atenção o crescimento da IA e pretende utilizar recursos para melhorar o próprio ecossistema.
Um dos bilionários atentos a IA é o cofundador do Ethereum, Vitalik Buterin, que fez uma doação para um fundo de pesquisas, que financia programas de doutorado de Segurança Existencial de Inteligência Artificial, uma área que procura salvar a humanidade de efeitos nocivos da tecnologia.
Além dele, a participação de Steve Wozniak, cofundador da Apple, na carta aberta ao público, mostra que os fãs das criptomoedas estão preocupados.
Não está claro, contudo, se a carta surtirá os efeitos desejados pela comunidade de entusiastas da tecnologia, que prefere aguardar uma regulação ao mercado de IA, antes que novidades além do ChatGPT 4 surjam.
Comentários