A iniciativa é parte de um amplo pacote de medidas tomadas pela rede social para acabar com os conteúdos de "ódio e extremismo" e para agregar sua lista de "organizações terroristas" a movimentos ou indivíduos que defendam a superioridade da raça branca.
O Facebook foi muito criticado por demorar 17 minutos para interromper a transmissão de um supremacista branco que no dia 15 de março matou 51 fiéis muçulmanos em Christchurch, na Nova Zelândia.
Desde então, a companhia tem multiplicado suas iniciativas como as restrições no acesso ao Facebook Live, reuniões com políticos e uma aliança com outras redes para frear o "desvio de tecnologias para transmitir conteúdo terrorista".
A polícia de Londres permitirá desde outubro que o Facebook treine suas ferramentas de inteligência artificial para detectar rapidamente esses conteúdos e eliminá-los.
A dificuldade é que essa tecnologia deve ser capaz de distinguir entre um ataque na vida real e uma cena de filme ou de videogame.
As ferramentas de inteligência artificial precisam de grandes quantidades de dados - nesse caso, imagens de tiroteios - para aprender a reconhecê-los, ordená-los e neste caso eliminá-los.
Depois de disponibilizar múltiplos recursos para combater o uso de sua rede por parte de organizações como a Al-Qaeda e o grupo jihadista Estado Islâmico, o Facebook se concentrou no supremacismo branco, cujos partidários estão por trás de muitos assassinatos perpetrados nos últimos anos nos Estados Unidos.