OpenAI está contratando talentos. oficial de preparação. Ou seja, alguém cuja principal função é pensar em todas as maneiras pelas quais a IA pode dar terrivelmente errado. no postar paraSam Altman emitiu uma declaração reconhecendo que o rápido desenvolvimento de modelos de IA apresenta “alguns desafios reais”. A postagem destaca especificamente o impacto potencial na saúde mental das pessoas e os perigos das armas de segurança cibernética baseadas em IA.
que Informações sobre o trabalho Digamos que a pessoa na função será responsável por:
“Você rastreará e se preparará para capacidades de linha de frente que representam novos riscos que podem resultar em danos significativos. Você será o líder com responsabilidade direta pela construção e coordenação de avaliações de capacidade, modelos de ameaças e mitigações que formam um pipeline de segurança consistente, rigoroso e operacionalmente escalonável.”
Altman também diz que daqui para frente, essa pessoa será responsável por executar a “estrutura de prontidão” da empresa, garantindo modelos de IA para a implementação de “capacidades biológicas” e até mesmo estabelecendo barreiras de proteção para sistemas de autoaperfeiçoamento. Ele também disse que este seria um “trabalho estressante”, o que parece um eufemismo.



