Um especialista no campo da inteligência artificial está emitindo um alerta terrível sobre o futuro da tecnologia em rápido desenvolvimento. Em um novo artigo escrito para a revista Time, o pioneiro da pesquisa de IA, Eliezer Yudkowsky, diz que os métodos e estruturas atualmente usados para desenvolver IA estão colocando a humanidade em sério perigo
Yudkowsky aponta para uma carta aberta do Future of Life Institute que pede uma pausa imediata no desenvolvimento da IA.
“ Muitos pesquisadores imersos nessas questões, inclusive eu, esperam que o resultado mais provável da construção de uma IA inteligente sobre-humana, em qualquer coisa remotamente parecida com as circunstâncias atuais, é que literalmente todos na Terra morrerão.”
Yudkowsky diz que não está falando sobre uma chance pequena ou mesmo estatisticamente significativa de que a IA acabaria com a humanidade.
Se alguém construir uma IA muito poderosa, nas condições atuais, espero que todos os membros da espécie humana e toda a vida biológica na Terra morram logo depois.”
Yudkowsky diz que há muita ignorância sobre o quão autoconscientes e poderosos os novos sistemas de IA realmente são, o que por si só sugere que os desenvolvedores devem parar imediatamente e determinar como implementar medidas para salvaguardar a tecnologia e proteger a vida na Terra.
Recorde -se que um grupo de mais de 1.000 especialistas em IA, pesquisadores, patrocinadores e empreendedores de tecnologia, incluindo Elon Musk, assinaram a carta aberta pedindo uma pausa no desenvolvimento da IA.
A gigante da tecnologia Microsoft liderou a expansão dos casos de uso do ChatGPT, integrando-o ao Bing e ao Office 365, depois de assinar um contrato de US$ 10 bilhões com a OpenAI.
LEIA TAMBÉM
Comunidade Cripto Nigeriana Afetada pelo Colapso da Paxful
Ex-CTO da Square e Criador do Cash App Morre Esfaqueado em São Francisco