Publicité
La bourse est fermée
  • CAC 40

    8 219,14
    +31,49 (+0,38 %)
     
  • Euro Stoxx 50

    5 085,08
    +30,67 (+0,61 %)
     
  • Dow Jones

    39 512,84
    +125,08 (+0,32 %)
     
  • EUR/USD

    1,0772
    -0,0012 (-0,11 %)
     
  • Gold future

    2 366,90
    +26,60 (+1,14 %)
     
  • Bitcoin EUR

    56 553,14
    -1 802,14 (-3,09 %)
     
  • CMC Crypto 200

    1 260,63
    -97,38 (-7,17 %)
     
  • Pétrole WTI

    78,20
    -1,06 (-1,34 %)
     
  • DAX

    18 772,85
    +86,25 (+0,46 %)
     
  • FTSE 100

    8 433,76
    +52,41 (+0,63 %)
     
  • Nasdaq

    16 340,87
    -5,40 (-0,03 %)
     
  • S&P 500

    5 222,68
    +8,60 (+0,16 %)
     
  • Nikkei 225

    38 229,11
    +155,13 (+0,41 %)
     
  • HANG SENG

    18 963,68
    +425,87 (+2,30 %)
     
  • GBP/USD

    1,2525
    +0,0001 (+0,01 %)
     

Apple renonce à scanner les photos de l’iPhone pour détecter la pédopornographie

L’outil NeuralMatch, présenté en 2021 pour lutter contre les photos pédopornographiques, n’est plus développé par Apple. Ce logiciel avait entraîné une forte polémique lors de sa présentation. L’entreprise a depuis un adopté une autre stratégie.

C’est une décision qui passerait presque inaperçue, tant l’annonce de l’arrivée prochaine du chiffrement de bout en bout sur iCloud prend toute la lumière. Elle tient en une phrase. Au détour de son entretien avec le Wall Street Journal, le 7 décembre 2022, Craig Federighi, le vice-président d’Apple et patron de l’ingénierie logicielle, a confirmé l’arrêt d’un projet qui a fait couler beaucoup d’encre en 2021.

Un outil de lutte contre la pédopornographie

L’outil en question devait entrer dans la lutte contre la diffusion et le stockage de contenus pédopornographiques (que l’on appelle en anglais CSAM, pour child sexual abuse material). Il a été présenté à l’été 2021. L’ambition de l’entreprise américaine ? Mobiliser un logiciel capable de scanner les contenus sur l’iPhone pour détecter ce genre de fichier.

Une signature binaire est associé à chaque image envoyé sur iCloud // Source : Apple
Une signature binaire est associé à chaque image envoyé sur iCloud // Source : Apple

Cet outil, baptisé NeuralMatch, fonctionnait en récupérant la signature d’une image envoyée sur iCloud (dans le cadre de la sauvegarde de l’iPhone) pour la comparer avec les signatures de clichés pédopornographiques figurant dans une base de données. Si plusieurs correspondances étaient relevées,

[Lire la suite]