Apple opóźnia wdrożenie kontrowersyjnego systemu! O co chodzi?

Wygląda na to, że gigant z Cupertino potrzebuje więcej czasu na dopracowanie swojego rozwiązania.

Fot. 9to5mac.com

O co chodzi? Już kilkukrotnie wspominaliśmy o systemie. który Apple chce wprowadzić, aby walczyć między innymi z dziecięcą pornografią. Jak miałby działać? Nowa technologia będzie skanowała zdjęcia, które użytkownicy iPhone'ów przenoszą do iCloud, w poszukiwaniu treści zawierających dziecięcą pornografię oraz przeszukiwała je w poszukiwaniu zdjęć dzieci znajdujących się w bazie osób zaginionych. Jeżeli system wykryje nielegalne treści, przekaże je do weryfikacji pracownikowi, który będzie mógł zgłosić materiał do odpowiednich służb.

Pomimo, iż ta technologia wydaje się bardzo dobrym rozwiązaniem chroniącym dzieci w sieci, natychmiast wywołała ona wiele kontrowersji i krytycznych opinii. Zdaniem wielu, w tym kryptografów, polityków, a także twórców podobnych programów, otwiera ona furtkę do wielu nadużyć oraz potencjalnego wykorzystania jej przez służby i rządy innych krajów do innych celów.

Zobacz również:

  • Kolejne problemy z Face ID, tym razem wśród poważnie chorych użytkowników
  • Smartwatch – pierwszy telefon Twojego dziecka
  • Apple bada zamiast łatać - iOS 15 wciąż z poważnymi lukami

Firma do tej pory odpierała takie zarzuty, zapewniając o jej bezpieczeństwie i ochronie prywatności użytkowników, dokładnie tłumacząc w jaki sposób miałby działać ten system. Wygląda jednak na to, że gigant z Cupertino wziął sobie te opinie do serca i chce poświęcić swojemu rozwiązaniu więcej czasu i uwagi. Wedle wcześniejszych planów system miał zostać wdrożony w Stanach Zjednoczonych wraz z premierami systemów iOS 15, iPadOS 15, watchOS 8, oraz macOS Monterey.

Artykuł zamieszczony na oficjalnej stronie Apple został dziś zaktualizowany o jedną bardzo ważną informację. Firma przypomina, że w ubiegłym miesiącu ogłosiła plany wdrożenia systemu, który miałby chronić nieletnich w sieci przed osobami, które chcą je wykorzystać. Innym zadaniem systemu ma być ograniczenie rozprzestrzeniania materiałów, w których znajdują się nielegalne treści poświęcone seksualnemu wykorzystywaniu dzieci. Apple twierdzi, że w oparciu o odzew ze strony społeczeństwa zdecydowała się na opóźnienie pojawienia się tego systemu, aby dać sobie czas na zebranie większej ilości danych i usprawnienie systemu.