Hardware para inteligência artificial: Vitalik Buterin sugere pausa por razões de segurança

Análise de hoje CoinMarketCap repercute post de Vitalik Buterin sugerindo uma pausa no desenvolvimento de hardware para inteligência artificial, publicado ontem. O cofundador do Ethereum alertou para potenciais riscos da IA superar a inteligência humana em diversas áreas.
Num tom quase apocalítico, Buterin afirmou que não se trata de limitar a inovação, mas de efetivamente evitar uma possível catástrofe contra a segurança humana.
Segundo Buterin, não estamos falando no longo prazo, mas de algo previsto para o futuro próximo, em torno de cinco anos. Diante disso, ele propõe limitar os recursos para a computação global por um ou dois anos.
Desse modo, a humanidade ganharia mais tempo para se preparar para o que vem pela frente. Em outras palavras, seria uma forma de desacelerar o lançamento de tecnologias, no campo da inteligência artificial, que podem fugir do controle.
Regulação e mais responsabilidade
Mas o que exatamente significaria essa pausa? De acordo com Buterin, seria necessário reduzir o poder da computação global em até 99%.
Apesar de admitir que essa seria uma opção extrema – ou seja, uma espécie de última saída – ele afirma que a medida se justifica diante dos atuais riscos que a inteligência artificial representa.
Além disso, ele apontou a necessidade de regras mais claras e rigorosas com relação ao desenvolvimento se soluções e produtos nessa área. Dessa forma, se cobraria mais responsabilidade dos desenvolvedores.
Buterin ressaltou, ainda, a importância da regulação de hardwares na área da inteligência artificial, como, por exemplo, registro de chips de IA e monitoramento de sua localização. A tecnologia blockchain poderia ser usada para conferir se esses chips de hardware estão em conformidade com protocolos de autorização.
Preocupação recorrente
A CoinMarketCap destaca, ainda, que essa preocupação com a IA superinteligente não vem de hoje, e é comum entre líderes de tecnologia e pesquisadores.
Quem não se lembra, por exemplo, da carta aberta assinada em 2023 por 2.600 pessoas, incluindo executivos do campo da tecnologia, como Elon Musk. Eles também sugeriam uma trégua no desenvolvimento da inteligência artificial, por conta dos profundos riscos que essa tecnologia representa para a humanidade.
No caso de Buterin, sua argumentação se baseia no chamado “defensive accelerationism” (d/acc) – algo como aceleração defensiva. Essa teoria se opõe ao “effective accelerationism” (e/acc) – aceleração efetiva, ou seja, que encoraja avanços rápidos e sem limitações.

Leia mais:
- Binance recebe autorização para compra da Sim;paul no Brasil
- Trader lucra mais de 356.000% com meme coin
- 5 criptomoedas de DeSci que custam menos de R$ 0,01 para comprar agora