Apple "Cree" Que Su Nuevo Backdoor Será Objeto Gubernamental en Potencia

Iniciado por X.A.N.A.X, Septiembre 19, 2021, 05:05:18 PM

Tema anterior - Siguiente tema

0 Miembros y 1 Visitante están viendo este tema.

Septiembre 19, 2021, 05:05:18 PM Ultima modificación: Septiembre 20, 2021, 06:58:32 PM por X.A.N.A.X
No tienes permitido ver los links. Registrarse o Entrar a mi cuenta

HOLA A TOD@S

Apple, codiciada e impoluta marca, una de las imágenes más elaboradas e impecables en el mercado, és utilizada como muchas otras a modo de señuelo por el gobierno encubierto para desviar las miradas a otro sitio, elegida por su credibilidad y confianza por parte de los clientes (que son demasiados) para introducir un BackDoor (algo que no es nuevo en entidades gubernamentales) solo que esta vez será de manera legal y aceptada por los usuarios publicamente, como cuando revelaron que tienen al mundo entero bajo vigilancia (ver mi post:¿Es legal escalar privilegios?) y de nuevo utilizando como excusa el terrorismo y la pornografía infantil.

Sabiendo de antemano que esto huele a algo muy pero que muy planificado, es deducible que Apple ha optado por hacer como si no lo supieran diciendo que ahora, han pensado que si colocan ese BackDoor, el gobierno lo utilizaría (sin su consentimiento (JAJAJA)) para otros fines, cosa que normalmente el gobierno le compensa generosamente a todas las empresas con las que trata(sobretodo (y obvio) las líderes), que siempre es más fácil y seguro, ya que si rechazan el trato les hunden la compañia y/o la vida.
Ahora Apple dice no tenerlo claro, pero atentos a los próximos avances.

Sin más preámbulos os dejo con este post.





Apple ha suspendido temporalmente sus controvertidos planes de detección de material de abuso sexual infantil (CSAM) en los dispositivos de los usuarios, después de haber recibido numerosas críticas por la posibilidad de que la herramienta se convierta en un arma de vigilancia masiva y erosione la privacidad de los usuarios.

Citar"Basándonos en los comentarios de los clientes, los grupos de defensa, los investigadores y otros, hemos decidido tomarnos más tiempo en los próximos meses para recopilar información y hacer mejoras antes de lanzar estas funciones de seguridad infantil de importancia crítica"
Esto dijo el fabricante de iPhones en un comunicado de su sitio web.

El anuncio, sin embargo, no aclara el tipo de información que se recopilará, la naturaleza de los cambios que se pretende diseñar o cómo se pretende implementar el sistema de manera que se mitiguen los problemas de privacidad y seguridad que podrían surgir una vez que se implemente.

Los cambios estaban programados originalmente para entrar en funcionamiento con iOS 15 y macOS Monterey a finales de este año, comenzando por Estados Unidos.

En agosto, Apple detalló varias nuevas funciones destinadas a ayudar a limitar la propagación del CSAM en su plataforma, incluyendo el escaneo de las bibliotecas de Fotos de iCloud de los usuarios en busca de contenido ilícito, una opción de Seguridad de la Comunicación en la aplicación Mensajes para advertir a los niños y a sus padres cuando reciban o envíen fotos sexualmente explícitas, y una guía ampliada en Siri y en la Búsqueda cuando los usuarios intenten realizar búsquedas sobre temas relacionados con el CSAM.

La llamada tecnología NeuralHash habría funcionado cotejando las fotos de los iPhones, iPads y Macs de los usuarios justo antes de subirlas a Fotos de iCloud con una base de datos de imágenes conocidas de abusos sexuales a menores mantenida por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) sin tener que poseer las imágenes o espiar su contenido. Las cuentas de iCloud que superasen un umbral establecido de 30 hashes coincidentes serían entonces revisadas manualmente, se desactivarían sus perfiles y se informarían a las autoridades.

Las medidas pretendían alcanzar un compromiso entre la protección de la privacidad de los clientes y la satisfacción de las crecientes demandas de las agencias gubernamentales en las investigaciones relacionadas con el terrorismo y la pornografía infantil y, por extensión, ofrecer una solución al llamado problema de la "oscuridad" de los delincuentes que se aprovechan de las protecciones de cifrado para ocultar sus actividades de contrabando.

Sin embargo, las propuestas fueron recibidas con una reacción casi instantánea, y la Electronic Frontier Foundation (EFF) denunció al gigante tecnológico por intentar crear un sistema de vigilancia en el dispositivo, añadiendo que "una puerta trasera bien documentada, cuidadosamente pensada y de alcance limitado sigue siendo una puerta trasera".
Citar
"Una vez que esta capacidad se incorpore a los productos de Apple, la empresa y sus competidores se enfrentarán a una enorme presión -y potencialmente a requisitos legales de los gobiernos de todo el mundo para escanear las fotos no sólo en busca de CSAM, sino también de otras imágenes que un gobierno considere objetables"

Dijo el Centro para la Democracia y la Tecnología (CDT) en una carta abierta.


"Esas imágenes pueden ser de abusos de los derechos humanos, protestas políticas, imágenes que las empresas han etiquetado como contenido "terrorista" o extremista violento, o incluso imágenes poco favorecedoras de los propios políticos que presionarán a la empresa para que las escanee. Y esa presión podría extenderse a todas las imágenes almacenadas en el dispositivo, no sólo a las subidas a iCloud.
Citar
Así, Apple habrá sentado las bases para la censura, la vigilancia y la persecución a nivel mundial"
Decía la carta.

Sin embargo, en un correo electrónico que circuló internamente en Apple, se descubrió que los defensores de la seguridad infantil desestimaban las quejas de los activistas de la privacidad y los investigadores de seguridad como la "voz chillona de la minoría".

Desde entonces, Apple ha intervenido para calmar las posibles preocupaciones derivadas de las consecuencias no deseadas, oponiéndose a la posibilidad de que el sistema pueda utilizarse para detectar otras formas de fotos a petición de gobiernos autoritarios. "Seamos claros, esta tecnología se limita a detectar el CSAM almacenado en iCloud y no accederemos a la petición de ningún gobierno de ampliarla", dijo la compañía.

Aun así, no ha disipado los temores de que el escaneo del lado del cliente pueda suponer una preocupante invasión de la privacidad y de que pueda ampliarse para cometer más abusos, y proporcionar un modelo para romper el cifrado de extremo a extremo. Tampoco ayudó el hecho de que los investigadores fueran capaces de crear "colisiones de hash" -también conocidas como falsos positivos- mediante ingeniería inversa del algoritmo, lo que llevó a un escenario en el que dos imágenes completamente diferentes generaron el mismo valor de hash, engañando así al sistema para que pensara que las imágenes eran las mismas cuando no lo son.

Via No tienes permitido ver los links. Registrarse o Entrar a mi cuenta

×××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××
XanAxaNAXaNAXAnxAnaXANaXAN
×××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××××
¿Que pasa si un objeto imparable choca contra otro inamovible?

Por cierto, me gustaría saber quién editó mi post para darle las gracias por colocarme la imagen (perfecta para el caso) .

x.a.n.a.x
¿Que pasa si un objeto imparable choca contra otro inamovible?