Estruturas e leis propostas para IA
Depois de explorar o imenso poder e os perigos potenciais da IA, desde seu papel na guerra até seu impacto em nossos empregos e criatividade, chegamos à pergunta mais crucial: o que fazemos a respeito? Responder a isso requer mais do que apenas políticas reativas; requer uma filosofia fundamental — uma visão clara do papel que queremos que a IA desempenhe na história humana.
O que se segue é uma estrutura proposta baseada em um único princípio orientador: a IA deve ser desenvolvida e implantada a serviço do potencial humano, não como um substituto para ele. É uma visão para uma sociedade aumentada por IA, em que a tecnologia serve como uma ferramenta para elevar nosso intelecto, criatividade e capacidades, em vez de torná-los obsoletos.
Uma estrutura para um futuro de IA centrado no ser humano
Essa estrutura se baseia em quatro princípios fundamentais: quatro linhas claras na areia que definem uma relação saudável entre a humanidade e nossa criação mais poderosa.
- A IA não deve impedir o aprendizado. A mente humana não é um recipiente a ser enchido, mas um fogo a ser aceso. O papel da IA na educação deve ser o de um tutor mestre — uma ferramenta para provocar o pensamento crítico, exercitar nossa mente e nos ajudar a aprender. Não deve se tornar uma muleta que nos impeça de desenvolver a capacidade de pensar e gerar ideias para nós mesmos.
- A IA não deve impedir o trabalho. O objetivo da tecnologia deve ser criar ferramentas melhores, não tornar o artesão desnecessário. A IA deve aumentar as capacidades humanas, tornando-nos mais produtivos e criativos. Ele não deve ser projetado com o objetivo principal de substituir totalmente os trabalhadores humanos.
- A IA não deve governar os humanos. O ato de governança — de tomar decisões para uma sociedade — é uma tarefa profundamente humana, que exige empatia, julgamento moral e experiência vivida. Essa é uma função que nunca deve ser delegada a uma máquina. Todos os sistemas de governança devem ter um controle humano significativo.
- A IA não deve tomar decisões que alterem sua vida. Decisões que alteram fundamentalmente o curso da vida humana — na medicina, na justiça ou nas finanças — têm um peso moral que um algoritmo não pode suportar. Em última análise, essas decisões devem ser tomadas por seres humanos responsáveis.
Leis propostas para uma sociedade aumentada com IA
A partir desses princípios, podemos derivar leis claras e aplicáveis, projetadas para orientar o desenvolvimento da IA em direção a um futuro positivo. O objetivo dessas leis não é impedir a inovação, mas direcioná-la.
- O mandato do tutor de IA: Com base no princípio de proteger o aprendizado humano, essa lei exigiria que qualquer sistema de IA comercializado para uso educacional para menores fosse certificado como uma ferramenta que promove ativamente o pensamento crítico e o exercício mental. Os sistemas de IA projetados para geração passiva de conteúdo sem andaimes educacionais seriam restritos nas escolas.
- A Lei de Aumento, Não Automação: Para garantir que a IA sirva como uma ferramenta, não como uma substituta, essa lei introduziria a Regra de Limitação de Agentes. Agentes de IA totalmente autônomos seriam legalmente proibidos de operar em uma capacidade profissional por mais do que uma duração definida (por exemplo, 10 a 15 minutos) em uma única tarefa contínua. Isso permite que eles sejam assistentes incrivelmente úteis para trabalhos específicos (como pesquisas aprofundadas), mas torna inviável que substituam um trabalhador humano em tempo integral.
- O imperativo Human-in-the-Loop: Para impedir que a IA governasse, essa lei exigiria um controle humano significativo sobre qualquer sistema de IA usado na governança pública, na aplicação da lei ou no comando militar. Para qualquer decisão letal ou de alto risco, um humano deve ser a autoridade final.
- A proibição de decisões automatizadas que alteram vidas: Para proteger a agência humana, essa lei proibiria estritamente o uso de sistemas de IA totalmente automatizados para tomar decisões finais e vinculativas em áreas pessoais críticas. Isso incluiria decisões finais de liberdade condicional, diagnósticos médicos críticos e aprovações finais para empréstimos que mudam vidas, como hipotecas. Uma IA pode ajudar e fornecer análises, mas o julgamento final deve ser humano.
Conceito-chave: A sociedade aumentada por IA
Acredito que uma sociedade aumentada por IA, embora não seja a mais avançada, é a que prospera. Uma sociedade dirigida pela IA morre.
O grande compromisso: agentes de IA para as estrelas
Essa estrutura não significa que devemos parar de desenvolver uma IA altamente avançada e totalmente autônoma. Nosso desejo de inovar é imparável. A solução é canalizar essa ambição para metas que não ameacem nosso tecido social. Devemos tratar o desenvolvimento da Inteligência Geral Artificial (AGI) da mesma forma que tratamos nossas tecnologias mais poderosas e perigosas — com imensas salvaguardas e com um grande propósito.
O papel desses agentes autônomos semelhantes a deuses não é substituir um profissional de marketing na Terra, mas explorar o universo para nós. Podemos construí-los e um dia enviá-los em foguetes para povoar a galáxia, atuando como nossos emissários robóticos para o cosmos, relatando suas descobertas. Pode um dia haver um mundo que eles construam para si mesmos entre as estrelas, mas a Terra continua sendo o domínio da humanidade — um mundo aumentado, mas nunca substituído, pelas ferramentas que criamos.
Verificação rápida
De acordo com a estrutura proposta, qual é o papel principal que a IA deve desempenhar no local de trabalho?
Recapitulação: Propondo uma estrutura para IA
O que abordamos:
- Exploramos uma estrutura para governança de IA baseada no princípio de aumentar, e não substituir, o potencial humano.
- A estrutura inclui quatro princípios fundamentais: a IA não deve impedir o aprendizado, o trabalho, a governança ou as decisões que alteram a vida dos humanos.
- A partir dessa estrutura, derivamos leis propostas, como limites de tempo para agentes de IA e proibições de decisões automatizadas em áreas críticas.
- Essa visão permite o desenvolvimento contínuo da IA, mas canaliza os sistemas autônomos mais avançados para grandes desafios, como a exploração espacial, em vez de substituir empregos na Terra.
Por que isso é importante:
- Ter uma visão filosófica clara é o passo mais importante na criação de leis eficazes. Ao decidir que tipo de futuro queremos, podemos moldar a tecnologia para servir aos nossos valores mais elevados, garantindo que a controlemos, e não o contrário.
A seguir:
- Veremos como diferentes regiões — EUA, Europa e China — estão realmente abordando a legislação de IA atualmente.