Cérebro do ChatGPT avisa que a próxima geração de IA será “autónoma” e “imprevisível”

As declarações de Ilya Sutskever, ex-cientista-chefe da OpenAI, ressoam num momento chave para a indústria tecnológica. Depois de deixar a empresa em maio de 2024, fundou a Safe Superintelligence Inc. (SSI), uma organização que se concentra no desenvolvimento controlado e seguro de IA.

Mas a sua saída não foi fácil: os atritos com Sam Altman, CEO da OpenAI, mostram as tensões entre a ambição comercial e os princípios éticos em torno da inteligência artificial.

Ilya Sutskever foi um dos fundadores originais da OpenAI, criada em 2015 com o ambicioso propósito de desenvolver inteligência artificial que beneficie a humanidade. Como cientista-chefe, Sutskever foi fundamental nas descobertas que impulsionaram a OpenAI para o estrelato, desde o GPT-3 até à criação do revolucionário ChatGPT. No entanto, o seu trabalho foi além das capacidades técnicas, sendo um forte defensor da segurança no desenvolvimento da IA.

Durante anos, alertou para os riscos da superinteligência artificial: sistemas capazes de superar as capacidades cognitivas humanas, autónomos e, sobretudo, difíceis de prever ou controlar. As suas recentes observações na conferência NeurIPS apenas sublinham estas preocupações.

Na NeurIPS, Ilya Sutskever aprofundou a sua visão da superinteligência artificial. Segundo o mesmo, os sistemas da próxima geração não só serão mais avançados, como terão funcionalidades completamente novas:

Verdadeira autonomia: Ao contrário das IA atuais, que têm alguma “agência limitada”, as futuras inteligências artificiais serão capazes de tomar decisões e agir de forma independente.
Capacidade de raciocínio: Sutskever prevê que estas IA compreenderão conceitos complexos com o mínimo de dados.
Imprevisibilidade: À medida que estas tecnologias ganham autonomia, as suas ações tornar-se-ão cada vez mais difíceis de prever.
Autoconsciência: Num ponto polémico, o cientista acredita que estas IA poderiam tornar-se autoconscientes e até exigir direitos.

“Se o resultado final for que as IA querem coexistir connosco e ter direitos, não é necessariamente um mau cenário”, concluiu Sutskever. Estas afirmações, embora controversas, abrem um debate filosófico e ético sobre a relação entre os humanos e as máquinas.

A saída de Sutskever da OpenAI foi o resultado de uma série de tensões internas sobre a prioridade da segurança em relação ao crescimento exponencial. Em 2023, ele e Jan Leike lideravam a equipa Superalignment, com o objetivo de pesquisar como controlar inteligências artificiais extremamente avançadas.

Contudo, divergências com Sam Altman, CEO da empresa, geraram um conflito irreconciliável.

Altman, com uma visão mais comercial, deu prioridade ao lançamento de produtos e à garantia da competitividade da OpenAI num mercado que exige avanços constantes. Sutskever, por outro lado, defendeu uma posição mais conservadora, afirmando que o crescimento excessivo sem garantias de segurança poderia desencadear consequências irreversíveis. Esta luta atingiu o seu clímax em maio de 2024, quando Sutskever deixou a empresa.

Apenas um mês após a sua saída, Sutskever anunciou o lançamento da Safe Superintelligence Inc. (SSI), ao lado de outros antigos membros da OpenAI, como Daniel Gross e Daniel Levy. A missão da SSI é clara e convincente: garantir que a IA superinteligente é segura e está alinhada com os interesses humanos.

Na sua declaração fundação, a empresa afirmou que: “O nosso único foco é a superinteligência segura. A SSI conseguiu atrair a atenção dos investidores com uma ronda seed de mil milhões de dólares. A operar em Palo Alto e Tel Aviv, a empresa promete uma abordagem livre de distrações, sem pressões comerciais a curto prazo e uma agenda totalmente focada na segurança.

O conflito entre Sutskever e Altman simboliza um dilema no desenvolvimento da inteligência artificial: até onde devemos avançar e a que custo? Enquanto empresas como a OpenAI e a Anthropic (com Jan Leike a liderar a sua equipa de segurança) estão empenhadas num equilíbrio entre crescimento e controlo, a SSI propõe uma priorização absoluta da segurança.

A visão de Sutskever não é apenas técnica, mas ética e existencial. A possibilidade de criar inteligência mais avançada que a humana levanta questões fundamentais sobre o controlo, a coexistência e o próprio futuro da humanidade.

As palavras de Sutskever no NeurIPS deixam-nos uma questão em aberto que parece ficção científica: podemos controlar o que estamos prestes a criar ou seremos meros espectadores da sua autonomia?

Artigos relacionados