23 princípios para tornar a Inteligência Artificial mais segura

16 de agosto de 2018

A preocupação com o desenvolvimento seguro da Inteligência Artificial tem se tornado um assunto cada vez mais relevante.

Na história recente, estamos observando fortes sinais de alerta, como acidentes com carros autônomos, o robô atirador (F.E.D.O.R.), o escândalo Cambridge Analytica e a manipulação da massa, o vídeo de alerta do Future of Life Institute com a simulação dos drones assassinos, a utilização de Inteligência Artificial para geração de Fake News, Deep Fake e manipulação de vídeos em geral, entre muitos outros exemplos assustadores.

Inteligência artificial e segurança

Embora uma forma definitiva de se garantir o desenvolvimento benéfico seja difícil de ser alcançada, os princípios de Asilomar, listados a seguir, se apresentam como o caminho a ser seguido para mitigar os riscos e buscar a segurança necessária.

Eles são o resultado de um trabalho conjunto de pesquisadores acadêmicos e da indústria, contando com a contribuição de lideranças nas áreas de economia, legislação, ética e filosofia. Parte destes princípios podem ser implementados imediatamente, enquanto outros ainda dependerão de disrupturas tecnológicas.

Princípios de Asilomar

Aqui estão eles:

Aspectos de Pesquisa

1. Objetivo da pesquisa: O objetivo da pesquisa em Inteligência Artificial deve ser não criar inteligência não direcionada, mas inteligência benéfica;

2. Financiamento da pesquisa: Os investimentos em Inteligência Artificial (AI) devem ser acompanhados por investimentos em pesquisa para garantir seu uso benéfico, incluindo questões como ciência da computação, economia, legislação, ética e social.

Como podemos tornar os sistemas AI altamente robustos, de forma que eles façam o que queremos sem apresentar defeitos ou serem hackeados?
Como podemos promover a prosperidade através da automação ao mesmo tempo em que resguardemos os recursos e os propósitos das pessoas?
Como atualizar nossos sistemas legais para serem mais justos e eficientes, para acompanharem o ritmo da AI e gerenciar os riscos associados à AI?
Como definirmos os valores que a AI deve seguir e que status ético e legal estes valores devem possuir?

3. Relação Ciência / Legislação: Deve haver um relacionamento construtivo e saudável entre pesquisadores de AI e os legisladores.

4. Cultura de pesquisa: Uma cultura de cooperação, confiança e transparência deve ser estimulada entre pesquisadores e desenvolvedores de AI.

5. Evitar disputa: Equipes desenvolvendo AI devem cooperar ativamente para evitar atalhos em padrões de segurança.

Ética e valores

6. Segurança: Sistemas AI devem ser seguros e protegidos por toda a sua vida útil, e isto deve ser passível de verificação quando aplicável e viável.

7. Transparência das falhas: Se um sistema AI causar algum tipo de dano, deve ser possível identificar o porquê.

8. Transparência legal: Qualquer envolvimento de um sistema autônomo em uma decisão jurídica deve prover uma explicação satisfatória e auditável por uma autoridade humana.

9. Responsabilidade: Designers e construtores de sistemas de AI avançados são responsáveis nas implicações morais do seu uso, mal uso e ações, com responsabilidade e oportunidade para tratar estas implicações.

10. Alinhamento de valores: Sistemas AI altamente autônomos devem ser projetados de forma que seus objetivos e comportamentos sejam asseguradamente alinhados com os valores humanos ao longo de toda a sua operação.

11. Valores humanos: Sistemas AI devem ser projetados e operados de forma compatível com os ideais de dignidade humana, direitos, liberdade e diversidade cultural.

12. Privacidade pessoal: As pessoas devem ter direito de acessar, gerenciar e controlar os dados que elas geram, tendo em vista a poder dos sistemas AI para analisá-los e utilizá-los.

13. Liberdade e privacidade: A aplicação de AI sobre dados pessoais não deve restringir de forma injustificada a liberdade das pessoas, de forma real ou percebida.

14. Benefício compartilhado: Tecnologias AI devem beneficiar e empoderar a maior quantidade de pessoas possível.

15. Prosperidade compartilhada: A prosperidade econômica criada por AI deve ser compartilhada largamente, beneficiando toda a humanidade.

16. Controle humano: Humanos devem escolher como e quando delegar decisões para sistemas AI, para atinigir os objetivos escolhidos pelos humanos.

17. Não-subversão: O poder conferido aos sistemas AI altamente avançados deve respeitar e se aprimorar os processos sociais e cívicos dos quais a sociedade sadia depende, nunca subvertendo-os.

18. Corrida armamentista em AI: Uma corrida armamentista para armas autônomas letais deve ser evitada.

Questões de longo prazo

19. Precauções com capacidade: Não havendo consenso, devemos evitar inferências sobre os limites da capacidade de sistemas AI no futuro.

20. Importância: AIs avançadas podem representar uma mudança profunda na história da vida sobre a Terra e deve ser planejada e gerenciada com cautela e recursos proporcionais.

21. Riscos: Os riscos apresentados por sistemas AI, especialmente os riscos catastróficos ou existenciais, devem ser assunto de planejamento e esforços de mitigação proporcionais aos seus impactos esperados.

22. Auto-aprimoramento recursivo: Sistemas AI projetados para automaticamente se melhorarem ou se replicarem de forma que possa rapidamente promover aumento em quantidade ou qualidade devem ser assunto de rigorosas medidas de controle e segurança.

23. Bem comum: Superinteligência deve ser unicamente desenvolvida a serviço de ideais éticos amplamente compartilhados e para o benefício de toda a humanidade em detrimento de um estado ou organização.

Traduzido de Asilomar AI Principles, por indicação do prof. Antônio Marcos Alberti, do Inatel.

Conteúdo cedido pela Futuro Exponencial