Considerar: Não se poderá deixar de regular a rede e que, complementarmente, deve-se pensar sobre como regular os serviços de Internet, bem como os atores que devem ser regulados

“Considerar: Não se poderá deixar de regular a rede e que, complementarmente, deve-se pensar sobre como regular os serviços de Internet, bem como os atores que devem ser regulados.”
@ João Alexandre Zanon / SPR

Os princípios de regulação já foram expostos em outras respostas. Um bom exemplo para reflexão sobre a pergunta, especificamente no que toca aos atores, está nas contribuições do Instituto Nacional de Padrões e Tecnologia americano (NIST).

De acordo com o Instituto, especialmente no que se refere à gestão de riscos de inteligência artificial, como exemplificado no “AI Risk Management Framework”, os atores que devem ser regulados incluem uma variedade de organizações e indivíduos que desempenham papéis ativos ao longo do ciclo de vida dos sistemas de IA.

1. Organizações que desenvolvem ou usam IA

  • Desenvolvedores de IA: Aqueles que projetam, constroem e testam sistemas de IA antes de serem lançados.
  • Deployers (Implementadores) de IA: Organizações ou indivíduos que implementam e operam sistemas de IA em ambientes do mundo real.

2. Partes integradas ao ciclo de vida da IA

  • Fornecedores de dados: Organizações que fornecem os dados usados para treinar e operar sistemas de IA. A gestão de riscos associados a esses dados é crucial.
  • Auditores e avaliadores de IA: Especialistas que realizam testes, avaliações, verificações e validações de sistemas de IA para garantir que são seguros, eficazes e livres de viés indesejado.
  • Consumidores e usuários finais: Embora não tradicionalmente regulados, são impactados pelas regulamentações e suas necessidades e segurança devem ser consideradas pelos reguladores e desenvolvedores de IA.

3. Instituições de padrões e regulação

  • Agências governamentais: Como o NIST, que desenvolve frameworks e diretrizes para a segurança e a ética na utilização de IA.
  • Legisladores: Que podem criar leis específicas para a gestão e uso de IA, tais como proteções de privacidade, transparência e prevenção de discriminação.

4. Grupos de advocacia e sociedade civil

  • Grupos de advocacia de privacidade e ética: Que pressionam por regulamentações mais rigorosas em termos de ética da IA, privacidade de dados e justiça.
  • Grupos de pesquisa e universidades: Que estudam o impacto da IA e fornecem insights baseados em pesquisa para informar políticas públicas e regulamentações.

Referência:

  1. NIST, Artificial Intelligence Risk Management
    Framework