Remember when the board showed Sam the door? Turns out they might've had a point.
OpenAI acaba de lançar o seu último anúncio: estão a implementar salvaguardas para modelos de IA. O plano? Treinar esses sistemas para lidar com pedidos prejudiciais sem realmente os cumprir.
O timing é interessante, não é? A mesma empresa que passou por aquela drama de liderança complicada está agora a reforçar os protocolos de segurança. Faz-te questionar que conversas estavam a acontecer nos bastidores naquela altura.
A questão persiste - a jogada do conselho foi para proteger a tecnologia, ou para nos proteger a nós dela?
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Remember when the board showed Sam the door? Turns out they might've had a point.
OpenAI acaba de lançar o seu último anúncio: estão a implementar salvaguardas para modelos de IA. O plano? Treinar esses sistemas para lidar com pedidos prejudiciais sem realmente os cumprir.
O timing é interessante, não é? A mesma empresa que passou por aquela drama de liderança complicada está agora a reforçar os protocolos de segurança. Faz-te questionar que conversas estavam a acontecer nos bastidores naquela altura.
A questão persiste - a jogada do conselho foi para proteger a tecnologia, ou para nos proteger a nós dela?