DHS Revela Estratégia para Proteger a Inteligência Artificial,
Anuncia Mayorkas
O Conselho Consultivo de Inteligência Artificial do Departamento de Segurança Interna realizou sua primeira reunião nesta semana, visando aprimorar a implementação da tecnologia de IA e protegê-la contra ameaças externas.
Imagem by IA |
Durante uma sessão com a imprensa na conferência RSA e em um discurso aos funcionários, Mayorkas abordou a segurança da IA e os resultados da reunião inaugural do conselho. Questões como segurança em instalações críticas e impactos nos direitos humanos foram discutidas, destacando preocupações com o potencial uso da IA como veículo de preconceitos implícitos.
Problemas de longa data, como colorismo e sexismo em sistemas
de IA, foram abordados pelos membros do conselho e especialistas do governo,
enfatizando a necessidade de testar esses sistemas para garantir sua eficácia e
equidade em relação a mulheres e pessoas de cor. Iniciativas do governo,
incluindo projetos da Casa Branca e do Departamento de Justiça, estão em
andamento para eliminar esses preconceitos nos sistemas de IA.
O conselho do DHS, que se reunirá trimestralmente, conta com
membros como o CEO da OpenAI, Sam Altman, além de representantes do governo e
líderes em IA. A utilização da IA abrange diversas áreas, desde a gestão de
reclamações de seguros até o treinamento de agentes para situações de
refugiados, demonstrando sua ampla aplicação e importância em diferentes
setores.
Destaca-se também a cooperação global no combate às ameaças
relacionadas à IA, com a criação de um portal pelo DHS para acompanhar a
implementação e rescisão da tecnologia de IA devido a preocupações diversas. O
departamento planeja expandir sua equipe em áreas de IA, refletido no grande
número de candidaturas recebidas para esses cargos.
Mayorkas ressaltou o início do processo de elaboração de estratégias
para prevenir ameaças à IA e minimizar riscos durante sua aplicação. A
colaboração internacional é vista como crucial nesse sentido, visando
estabelecer defesas sólidas contra possíveis danos legislativos e outras
consequências indesejáveis relacionadas à IA.