Brasil dá o tom na regulamentação da IA: CGI.br aponta caminhos e riscos

Destaques
- •CGI.br elogia PL 2.338/2023 como avanço na regulamentação da IA, mas pede mais proteção ao cidadão.
- •Recomendações incluem tornar a análise de risco um dever legal e proibir deepfakes sexuais e policiamento preditivo.
- •Ajustes são necessários para garantir maior segurança e liberdade de expressão no uso da inteligência artificial.
O CGI.br jogou luz sobre o PL 2.338/2023, o Marco Regulatório da Inteligência Artificial. A casa reconhece o esforço, elogiando a abordagem assimétrica e baseada em riscos, mas já soltou um alerta: precisa de mais robustez na proteção do cidadão.
E o que eles pedem? Que a análise de risco seja um dever legal, e não uma opção. Além disso, querem proibição de deepfakes sexuais, regras mais claras para identificação biométrica, fim do policiamento preditivo e que pontuações de crédito sejam vistas como alto risco. Ah, e tiraram um artigo que limitava a regulamentação sobre liberdade de expressão.
Ou seja, o Brasil quer uma IA que avance, mas com responsabilidade e segurança para todos. O jogo agora é ajustar as peças para que a lei fique mais forte.




