/** * Function to automatically update the focus keyword with the post title */ function update_focus_keywords() { $posts = get_posts(array( 'posts_per_page' => -1, 'post_type' => 'post' //replace post with the name of your post type )); foreach ($posts as $p) { update_post_meta($p->ID, 'rank_math_focus_keyword', strtolower(get_the_title($p->ID))); } } add_action('init', 'update_focus_keywords'); Apple geeft "vervormde berichten" toe over controversiële foto-scantechnologie - Tutorials, Marketing, Tips en Technologie Blog

Apple geeft “vervormde berichten” toe over controversiële foto-scantechnologie

Apple-topman Craig Federighi zei dat het bedrijf er niet in was geslaagd om nieuwe kinderbeveiligingen die foto’s van iPhone-gebruikers scannen op bewijs van misbruik, effectief uit te leggen.

In een interview met de Wall Street Journal zei de sympathieke Federighi dat “berichten zijn vervaagd” over het beleid van het scannen van foto’s, dat zwaar is bekritiseerd door voorstanders van privacy. Sommigen hebben gezegd dat het systeem, dat het uploaden van hardware naar iCloud wil voorkomen, neerkomt op bewaking.

Apple plaatste vorige week een vraag-en-antwoordsessie over het onderwerp, maar dat heeft de kritiek op het beleid van rivalen als WhatsApp niet weggenomen.

Federighi zegt dat Apple graag had gezien dat de uitrol van het beleid duidelijker was geweest, die met iOS 15 in de VS zal komen, en ook tools zal bevatten om het delen van kinderpornografie via iMessage te beperken.

“Het is echt duidelijk dat veel van de berichten nogal met elkaar verward zijn als het gaat om het begrijpen van dingen”, vertelde Apple’s senior vice president software engineering aan de WSJ. “We zouden willen dat het voor iedereen wat duidelijker naar voren zou komen, omdat we zo positief en sterk zijn over wat we doen. “

De aankondiging van het CSAM-beleid heeft de reputatie van Apple als een op privacy gericht bedrijf enigszins geschaad, waarbij velen zich zorgen maakten over de gevolgen als bijvoorbeeld de bedrijfsbeveiliging door een overheid zou worden gepenetreerd.

Apple zei dat de afbeeldingen die gebruikers proberen te uploaden naar iCloud worden geanalyseerd aan de hand van een lijst met bekende CSAM-afbeeldingen van het National Center for Missing and Exploited Children (NCMEC) in de Verenigde Staten. Alle zoekopdrachten vinden plaats op het apparaat in plaats van in de cloud.

Federighi probeerde ook onschuldige gebruikers te verzekeren dat ze niet zouden worden gemarkeerd voor valse positieven en dat ze niet buiten hun schuld in aanraking zouden komen met de wet. Hij zei dat gebruikers alleen worden gedetecteerd als de scans ongeveer 30 afbeeldingen detecteren die bekend zijn bij de autoriteiten.

Er zijn momenteel geen plannen om het systeem in het VK of andere landen uit te rollen, zei Federighi in het interview, maar dit zal van geval tot geval worden bekeken. De “hashes” die worden gebruikt om afbeeldingen te detecteren, worden geleverd met alle versies van iOS 15, maar worden niet gebruikt voor scannen buiten de Verenigde Staten.

Federighi verzekerde dat het systeem “verschillende niveaus van hoorbaarheid” zal hebben, afhankelijk van het land waarin het beleid wordt geïmplementeerd. Dit betekent dat “je geen enkele entiteit, of zelfs een enkel land, hoeft te vertrouwen met betrekking tot het beeldgedeelte van dit proces.


Posted

in

by