La bourse ferme dans 2 h 47 min
  • CAC 40

    7 138,70
    -95,24 (-1,32 %)
     
  • Euro Stoxx 50

    4 204,20
    -53,78 (-1,26 %)
     
  • Dow Jones

    33 926,01
    -127,89 (-0,38 %)
     
  • EUR/USD

    1,0768
    -0,0029 (-0,27 %)
     
  • Gold future

    1 883,60
    +7,00 (+0,37 %)
     
  • BTC-EUR

    21 252,00
    -482,29 (-2,22 %)
     
  • CMC Crypto 200

    525,44
    -11,42 (-2,13 %)
     
  • Pétrole WTI

    74,29
    +0,90 (+1,23 %)
     
  • DAX

    15 345,66
    -130,77 (-0,84 %)
     
  • FTSE 100

    7 846,45
    -55,35 (-0,70 %)
     
  • Nasdaq

    12 006,96
    -193,84 (-1,59 %)
     
  • S&P 500

    4 136,48
    -43,28 (-1,04 %)
     
  • Nikkei 225

    27 693,65
    +184,19 (+0,67 %)
     
  • HANG SENG

    21 222,16
    -438,31 (-2,02 %)
     
  • GBP/USD

    1,2055
    -0,0001 (-0,01 %)
     

Apple renonce à scanner les photos de l’iPhone pour détecter la pédopornographie

L’outil NeuralMatch, présenté en 2021 pour lutter contre les photos pédopornographiques, n’est plus développé par Apple. Ce logiciel avait entraîné une forte polémique lors de sa présentation. L’entreprise a depuis un adopté une autre stratégie.

C’est une décision qui passerait presque inaperçue, tant l’annonce de l’arrivée prochaine du chiffrement de bout en bout sur iCloud prend toute la lumière. Elle tient en une phrase. Au détour de son entretien avec le Wall Street Journal, le 7 décembre 2022, Craig Federighi, le vice-président d’Apple et patron de l’ingénierie logicielle, a confirmé l’arrêt d’un projet qui a fait couler beaucoup d’encre en 2021.

Un outil de lutte contre la pédopornographie

L’outil en question devait entrer dans la lutte contre la diffusion et le stockage de contenus pédopornographiques (que l’on appelle en anglais CSAM, pour child sexual abuse material). Il a été présenté à l’été 2021. L’ambition de l’entreprise américaine ? Mobiliser un logiciel capable de scanner les contenus sur l’iPhone pour détecter ce genre de fichier.

Une signature binaire est associé à chaque image envoyé sur iCloud // Source : Apple
Une signature binaire est associé à chaque image envoyé sur iCloud // Source : Apple

Cet outil, baptisé NeuralMatch, fonctionnait en récupérant la signature d’une image envoyée sur iCloud (dans le cadre de la sauvegarde de l’iPhone) pour la comparer avec les signatures de clichés pédopornographiques figurant dans une base de données. Si plusieurs correspondances étaient relevées,

[Lire la suite]