Una compañía completamente desconocida ha
creado el software Clearwater AI, el cual podría poner fin a la privacidad tal como la
conoce la sociedad actualmente. Esta start-up, ayuda a números cuerpos de
seguridad en Estados Unidos, unos 600, a hacer búsquedas de personas a través de imágenes
en línea, esta situación podría conducir a un futuro distópico, donde un gran
hermano habrá acabaría con el derecho a la intimidad e imagen como garantiza
por ejemplo el artículo 18 de la Constitución Española. Los
desarrolladores del software contaron con la ayuda de algunos políticos norteamericanos
afines al partido republicano para vender el software a las fuerzas de
seguridad. Las autoridades tienen poca información sobre el origen de Clearwater
AI, ya que probablemente violó
las políticas de webs como Facebook, Twitter, Instagram y
YouTube para crear su base de datos con miles de millones de fotos. Existe
una clara preocupación entre las fuerzas de seguridad debido al uso potencial
que se pueda hacer de dicha herramienta de reconocimiento facial, particularmente
por el temor de que las herramientas tengan un sesgo racial. Según
el New York Times, el software es fruto de la
colaboración entre Hoan Ton-That, un
australiano que se mudó a los Estados Unidos en 2007, y Richard Schwartz, un
antiguo colaborador del exalcalde de la ciudad de Nueva York, Rudy
Giuliani. Los caminos de Ton-That y Schwartz se cruzaron en
una conferencia en el Instituto Manhattan, un think thank
de corte conservador, tal y como explica el NYT. Kirenaga Partners, un
pequeño fondo de inversión neoyorquino, también ha sido uno de los primeros
inversores del software Clearview AI, que ha recibido
financiación también de Peter Thiel, según el artículo. Thiel,
cofundador de PayPal y uno de los primeros inversores de Facebook, todavía formar
parte del consejo de administración de dicha compañía y es asesor del
presidente norteamericano Donald Trump. Cuando un usuario sube
una foto a la aplicación, que ha sido utilizada por los cuerpos de
seguridad, Clearview AI rastrea coincidencias en su catálogo de miles de
millones de fotos que ha extraído de diferentes redes sociales, normalmente
violando los términos de servicio de esas plataformas, según
explica el New York Times. A continuación muestra los resultados a quienquiera
que haya hecho la búsqueda. Clearview no ha compartido qué
fuerzas de seguridad han utilizado su herramienta. La compañía también habría
concedido licencias de su software a empresas privadas, según el
NYT. Varios cuerpos y fuerzas de seguridad de los Estados Unidos han confirmado
al periódico que han utilizado el software para ayudar a resolver crímenes que
van desde el hurto en tiendas hasta el asesinato. Las fuerzas de seguridad han
explicado al medio estadounidense que tienen poco conocimiento de quién ha
desarrollado exactamente Clearview AI o de cómo funciona su
software. Facebook está investigando a la startup por violar sus términos
de uso. Los fundadores de la app habrían empezado a comercializarla por licencias
de solo 2.000 dólares, según explica el diario estadounidense. Para
ello contaron supuestamente con la ayuda de personas afines al Partido
Republicano de los Estados Unidos con el fin de acercarse a los cuerpos y
fuerzas de seguridad, a quienes ofrecían utilizar el software por un precio muy
bajo o, en algunos casos, facilitaban una prueba gratuita del software. El
código de la aplicación, según el análisis realizado por el New York Times,
desvela que el software ha sido diseñado para trabajar con tecnología de realidad
aumentada, lo que significa que alguien que utilice unas gafas
especiales podría —en teoría— utilizar el software de Clearview AI para
visualizar de manera instantánea la identidad de una persona, la dirección de
su casa e incluso otros detalles privados. Ton-That explica al NYT en
el reportaje que su empresa estaba desarrollando la tecnología de realidad
aumentada como un prototipo, pero que no tenía planes de lanzar al
mercado. Clearview AI dice que su software es efectivo en un 75% de las
ocasiones, aunque tal y como señala el NYT, es imposible determinar la tasa de
falsos positivos que tienen el servicio ya que no ha sido examinado
independientemente por nadie. Clearview
AI puede ver qué buscan exactamente las fuerzas de seguridad con su software y
cuándo lo hacen lo cual acrecienta el peligro de dicha herramienta. A pesar de las
preocupaciones sobre la tecnología, las agencias de seguridad en todo Estados
Unidos parecen haber adoptado dicha tecnología, aunque su uso no suele
trascender debido a la naturaleza de las investigaciones policiales.
La inteligencia artificial
(AI)
está enseñando poco a poco la potencialidad que esconde y a la vez se
empiezan a ver los riesgos que de dicha tecnología arrastra en las sociedades
que se ven expuestas a ella. Los riesgos de la ciberseguridad son más complejos
que nunca. Debido al auge del Internet de las cosas (IoT) y la Inteligencia
Artificial (AI), en el año 2020 cada persona generará 1,7 megabytes de
información por segundo. A medida que las nuevas tecnologías evolucionan, los
ciberdelincuentes se adaptan y descubren nuevos métodos de piratería para
capturar datos confidenciales. (AI) e (IoT) tienen el potencial
de revolucionar la sociedad. A menos que las soluciones de seguridad de punto
final basadas en hardware se implementen en dispositivos (IoT) y (AI),
los usuarios se vuelven vulnerables a los ataques cibernéticos. Cualquiera que
tenga el control de uno o más de estos dispositivos puede acceder a una gran
cantidad de ordenadores y redes. Los bancos, los gobiernos, la industria de la
salud e incluso los hogares privados son campos de riesgo importantes, y los
ciberdelincuentes son muy conscientes de que cuantos más dispositivos estén
interconectados, más datos habrá que puedan verse comprometidos.
La (IA) fue creada para usar
el aprendizaje automático (ML) para ir más allá de las
capacidades del ser humano y ver patrones que los humanos no pueden percibir.
También puede evolucionar para darse cuenta de patrones que los humanos ni
siquiera los han programado para procesar. Mirar los datos de formas completamente
nuevas abre muchas posibilidades, pero en consecuencia también abre la puerta a
numerosos riesgos porque los peligros de la ciberseguridad no se tienen en
cuenta adecuadamente al fabricar dispositivos IoT y AI. Los
dispositivos móviles, las tarjetas de pago y la información de pago están
disponibles para plataformas (como
Google) y dispositivos automatizados (como
Alexa de Amazon) que se pueden usar para comprar sus alimentos en la era de
las casas inteligentes. El atractivo de tener esta información almacenada en
estas plataformas y dispositivos es la comodidad que aporta a la vida
cotidiana. Sin embargo, la realidad es que mucha gente no sabe realmente qué
está sucediendo con sus datos. ¿Cuánto podemos confiar en estos dispositivos? Para
los fabricantes, el enfoque principal con estos dispositivos es la experiencia
del cliente y la usabilidad, y como resultado, no está claro cuánta de esta
tecnología se está focalizando en asegurar estos dispositivos para proteger a
las personas que los usan y sus datos.
Algunos de los riesgos que
esconde la (AI) en diversas áreas donde ya se se está implantando son los
siguientes. En el caso de las aplicaciones de la banca móvil proporcionadas por
las instituciones financieras, las mismas aprenden los patrones de las
personas, como cuándo y dónde compran los artículos. También
tienen la capacidad de detectar patrones fuera de sus operaciones semanales
estándar y usar esto para crear perfiles de datos de una persona individual.
Las aplicaciones bancarias a menudo tienen mucha más seguridad que otros
dispositivos de (IoT) e (IA) y tienen alertas de fraude
incorporadas, pero hay tantos datos disponibles que hay un incentivo para que
terceros dediquen tiempo y esfuerzo para intentar obtener acceso y manipular
estos datos y por extensión, redes bancarias e instituciones financieras.
En la industria de la salud,
los riesgos se concentran en un nivel mucho más individual. Muchos dispositivos
son dispositivos de tipo embebido que se pueden encontrar en o sobre el cuerpo
humano, como marcapasos o dispositivos de transfusión. A pesar de la tecnología
de salud inteligente que proporcionan estos dispositivos, corren el riesgo de
malware como resultado de la ciberseguridad de bajo nivel que se instala en
ellos. Esto significa que los datos almacenados son vulnerables a ser leídos
por un tercero y extraídos de los dispositivos. Para evitar esto, los
dispositivos deben tener un nivel de confianza incorporado para que las
personas puedan evitar la intrusión y el acceso no autorizado,
lo que en última instancia podría dar lugar a una situación de vida o muerte,
como por ejemplo, un pirata informático podría acceder a un marcapasos y
desactivarlo o deliberadamente hacer que funcione mal.
En cuanto al hogar
conectado, las casas inteligentes están aportando más tecnología a los
elementos que hace unas décadas habrían parecido imposibles o absurdas: neveras,
iluminación, timbres y mucho más. Al igual que con la banca en línea, el
atractivo es hacer que la vida cotidiana funcione sin problemas y permitir que
las personas centren su atención en otros lugares. La clave para los dispositivos
domésticos inteligentes es su capacidad de predecir las necesidades de una
persona y sus patrones diarios, lo que hacen al rastrear la interacción de la
persona con el dispositivo y grabarlo. Los datos grabados se
comunican a un servidor, pero si este enlace de comunicación no es seguro, se
convierte en una ruta fácil para que los piratas informáticos ingresen a su
hogar. Del mismo modo, si los datos almacenados en el servidor o
la base de datos no están encriptados, existe el riesgo de una violación.
Si bien la idea de que una nevera sea pirateada parece casi divertido, la
realidad del peligro va mucho más allá de que un pirata informático sepa cuántos
huevos come. El acceso a sus datos y a todos sus otros dispositivos conectados le
brinda a un pirata informático un acceso a su hogar que puede causar serios
problemas de seguridad. Muchos de estos dispositivos son tan
pequeños que incrustar un Módulo de plataforma confiable (TPM) no es una
prioridad para un proveedor debido a que no es rentable, pero esta decisión
finalmente afecta al consumidor a largo plazo.
En los últimos años ha
habido un aumento espectacular en la colocación de dispositivos (IoT)
en vehículos, lo que ha provocado que las personas se suscriban a la idea de
monitorear cómo conducen a través de un dispositivo. Significativamente, estos
se han vinculado a proveedores de seguros que permiten a los clientes instalar
dispositivos que informan los datos y reducen las tarifas de seguro si conducen
dentro de un determinado conjunto de parámetros. Sin embargo, los riesgos de
ciberseguridad de dispositivos como estos pueden tener un efecto tanto a nivel
de consumidor como corporativo, ya sea que el dispositivo sea una caja negra
cableada, un complemento auto instalado que se adapta al puerto de diagnóstico
a bordo del vehículo (OBD -II dongle) o una aplicación
móvil que recopila datos a través del teléfono inteligente del consumidor. Una
vez que un vehículo está conectado a Internet, se crea una conexión entre el
proveedor de seguros y el vehículo, exponiendo los vehículos a los piratas
informáticos. Los (dongles OBD-II) pueden proporcionar acceso remoto a
vehículos que pueden causar daños personales graves, como desactivar los frenos
de un automóvil. A mayor escala, los servidores del proveedor de
seguros que reciben los datos también pueden ser un objetivo. Potencialmente,
los piratas informáticos pueden obtener acceso a los sistemas de fondo y lanzar
ataques remotos en flotas de vehículos completos. Finalmente, si las redes no
están segmentadas adecuadamente, los piratas informáticos pueden obtener acceso
a las redes de proveedores de seguros que podrían violar grandes cantidades de
datos personales. Los fabricantes de vehículos también están
aumentando la cantidad de sistemas inteligentes que se instalan en los nuevos
modelos. Estos sistemas permiten que el vehículo acceda al teléfono, los
contactos, las cámaras y todos los demás datos de un individuo asociados con la
"vida inteligente". Toda
esta información se retroalimenta al fabricante y sus servidores. Si se vende
un automóvil sin que los datos se limpien adecuadamente, permanecerá almacenado
en la nube. Esto abre una amplia gama de riesgos de seguridad, como los
propietarios anteriores que tienen acceso a automóviles que están siendo
utilizados por diferentes personas, lo que permite el acceso remoto a la
funcionalidad del automóvil, así como a los datos del nuevo usuario. Esto
también se aplica a las casas inteligentes: si una persona vende su casa, ¿se
han borrado los conjuntos de datos y las credenciales de los usuarios? Si estos
dispositivos no se cifran correctamente desde el principio y luego se borran
después de cada usuario, expone a las personas a una gran cantidad de riesgos
de ciberseguridad.
No es de extrañar que ante
dicha situación, el CEO de Alphabet (Google) Sundar Pichai, afirme
en un artículo en el Financial Times http://bit.ly/2Rz00If
que,
“No podemos limitarnos a construir nuevas tecnologías prometedoras y dejar
que las fuerzas del mercado sean las que determinen cómo se usan”. Alphabet
ha sido el mayor inversor mundial en I+D en el año 2019 con 18.270 millones de
euros, 19,29 veces más que Telefónica. Sin embargo, en esta afirmación
existe el reconocimiento implícito que la tecnología sin regulación y un código
ético puede vulnerar con sus “deepfakes”, (las técnicas de “deep learning” suponen tanto el problema como la
solución a la hora de detectar montajes hiperrealistas en vídeo), los cimientos de la sociedad moderna al
no distinguir la sociedad la verdad de la mentira. Aunque la
Comisión Europea haya publicado un libro blanco sobre la (AI), en el cual algunos usos de la misma se aplacen su aplicación durante
cinco años con el fin de encontrar soluciones a los problemas, la
tecnología va muy por delante de los reguladores y gobiernos.
Para terminar este post,
decir que en el año 2017, Peter Thiel dio a un joven fundador con talento 200.000 dólares, que 2 años más tarde se convirtieron en
acciones de Clearview AI. Casualidades de la vida, que su afinidad política al
partido republicano haya sido el motor de expansión de dicho sistema de
reconocimiento facial, como lo es que sea el mayor accionista de la compañía
más poderosa de Internet, Palantir, más que Google. La misma sobrevive básicamente de los contratos
de big data que le proporcionan los gobiernos federal y locales de los Estados
Unidos.
Ya lo dijo Alan Turing: “Solo podemos ver poco del
futuro, pero lo suficiente para darnos cuenta que hay mucho que hacer”.
No hay comentarios:
Publicar un comentario