lunes, 20 de enero de 2020

INTELIGENCIA ARTIFICIAL (AI)...UNA AMENAZA LATENTE


Una compañía completamente desconocida ha creado el software Clearwater AI, el cual  podría poner fin a la privacidad tal como la conoce la sociedad actualmente. Esta start-up, ayuda a números cuerpos de seguridad en Estados Unidos, unos 600,  a hacer búsquedas de personas a través de imágenes en línea, esta situación podría conducir a un futuro distópico, donde un gran hermano habrá acabaría con el derecho a la intimidad e imagen como garantiza por ejemplo el artículo 18 de la Constitución Española. Los desarrolladores del software contaron con la ayuda de algunos políticos norteamericanos afines al partido republicano para vender el software a las fuerzas de seguridad. Las autoridades tienen poca información sobre el origen de Clearwater AI,  ya que probablemente violó las políticas de webs como Facebook, Twitter, Instagram y YouTube para crear su base de datos con miles de millones de fotos. Existe una clara preocupación entre las fuerzas de seguridad debido al uso potencial que se pueda hacer de dicha herramienta de reconocimiento facial, particularmente por el temor de que las herramientas tengan un sesgo racial. Según el New York Times, el software es fruto de la colaboración entre Hoan Ton-That, un australiano que se mudó a los Estados Unidos en 2007, y Richard Schwartz, un antiguo colaborador del exalcalde de la ciudad de Nueva York, Rudy Giuliani. Los caminos de Ton-That y Schwartz se cruzaron en una conferencia en el Instituto Manhattan, un think thank de corte conservador, tal y como explica el NYT. Kirenaga Partners, un pequeño fondo de inversión neoyorquino, también ha sido uno de los primeros inversores del software Clearview AI, que ha recibido financiación también de Peter Thiel, según el artículo. Thiel, cofundador de PayPal y uno de los primeros inversores de Facebook, todavía formar parte del consejo de administración de dicha compañía y es asesor del presidente norteamericano Donald Trump. Cuando un usuario sube una foto a la aplicación, que ha sido utilizada por los cuerpos de seguridad, Clearview AI rastrea coincidencias en su catálogo de miles de millones de fotos que ha extraído de diferentes redes sociales, normalmente violando los términos de servicio de esas plataformas, según explica el New York Times. A continuación muestra los resultados a quienquiera que haya hecho la búsqueda. Clearview no ha compartido qué fuerzas de seguridad han utilizado su herramienta. La compañía también habría concedido licencias de su software a empresas privadas, según el NYT. Varios cuerpos y fuerzas de seguridad de los Estados Unidos han confirmado al periódico que han utilizado el software para ayudar a resolver crímenes que van desde el hurto en tiendas hasta el asesinato. Las fuerzas de seguridad han explicado al medio estadounidense que tienen poco conocimiento de quién ha desarrollado exactamente Clearview AI o de cómo funciona su software. Facebook está investigando a la startup por violar sus términos de uso. Los fundadores de la app habrían empezado a comercializarla por licencias de solo 2.000 dólares, según explica el diario estadounidense. Para ello contaron supuestamente con la ayuda de personas afines al Partido Republicano de los Estados Unidos con el fin de acercarse a los cuerpos y fuerzas de seguridad, a quienes ofrecían utilizar el software por un precio muy bajo o, en algunos casos, facilitaban una prueba gratuita del software. El código de la aplicación, según el análisis realizado por el New York Times, desvela que el software ha sido diseñado para trabajar con tecnología de realidad aumentada, lo que significa que alguien que utilice unas gafas especiales podría —en teoría— utilizar el software de Clearview AI para visualizar de manera instantánea la identidad de una persona, la dirección de su casa e incluso otros detalles privados. Ton-That explica al NYT en el reportaje que su empresa estaba desarrollando la tecnología de realidad aumentada como un prototipo, pero que no tenía planes de lanzar al mercado. Clearview AI dice que su software es efectivo en un 75% de las ocasiones, aunque tal y como señala el NYT, es imposible determinar la tasa de falsos positivos que tienen el servicio ya que no ha sido examinado independientemente por nadie. Clearview AI puede ver qué buscan exactamente las fuerzas de seguridad con su software y cuándo lo hacen lo cual acrecienta el peligro de dicha herramienta. A pesar de las preocupaciones sobre la tecnología, las agencias de seguridad en todo Estados Unidos parecen haber adoptado dicha tecnología, aunque su uso no suele trascender debido a la naturaleza de las investigaciones policiales.


La inteligencia artificial (AI) está enseñando poco a poco la potencialidad que esconde y a la vez se empiezan a ver los riesgos que de dicha tecnología arrastra en las sociedades que se ven expuestas a ella. Los riesgos de la ciberseguridad son más complejos que nunca. Debido al auge del Internet de las cosas (IoT) y la Inteligencia Artificial (AI), en el año 2020 cada persona generará 1,7 megabytes de información por segundo. A medida que las nuevas tecnologías evolucionan, los ciberdelincuentes se adaptan y descubren nuevos métodos de piratería para capturar datos confidenciales. (AI) e (IoT) tienen el potencial de revolucionar la sociedad. A menos que las soluciones de seguridad de punto final basadas en hardware se implementen en dispositivos (IoT) y (AI), los usuarios se vuelven vulnerables a los ataques cibernéticos. Cualquiera que tenga el control de uno o más de estos dispositivos puede acceder a una gran cantidad de ordenadores y redes. Los bancos, los gobiernos, la industria de la salud e incluso los hogares privados son campos de riesgo importantes, y los ciberdelincuentes son muy conscientes de que cuantos más dispositivos estén interconectados, más datos habrá que puedan verse comprometidos.
La (IA) fue creada para usar el aprendizaje automático (ML) para ir más allá de las capacidades del ser humano y ver patrones que los humanos no pueden percibir. También puede evolucionar para darse cuenta de patrones que los humanos ni siquiera los han programado para procesar. Mirar los datos de formas completamente nuevas abre muchas posibilidades, pero en consecuencia también abre la puerta a numerosos riesgos porque los peligros de la ciberseguridad no se tienen en cuenta adecuadamente al fabricar dispositivos IoT y AI. Los dispositivos móviles, las tarjetas de pago y la información de pago están disponibles para plataformas (como Google) y dispositivos automatizados (como Alexa de Amazon) que se pueden usar para comprar sus alimentos en la era de las casas inteligentes. El atractivo de tener esta información almacenada en estas plataformas y dispositivos es la comodidad que aporta a la vida cotidiana. Sin embargo, la realidad es que mucha gente no sabe realmente qué está sucediendo con sus datos. ¿Cuánto podemos confiar en estos dispositivos? Para los fabricantes, el enfoque principal con estos dispositivos es la experiencia del cliente y la usabilidad, y como resultado, no está claro cuánta de esta tecnología se está focalizando en asegurar estos dispositivos para proteger a las personas que los usan y sus datos.


Algunos de los riesgos que esconde la (AI) en diversas áreas donde ya se se está implantando son los siguientes. En el caso de las aplicaciones de la banca móvil proporcionadas por las instituciones financieras, las mismas aprenden los patrones de las personas, como cuándo y dónde compran los artículos. También tienen la capacidad de detectar patrones fuera de sus operaciones semanales estándar y usar esto para crear perfiles de datos de una persona individual. Las aplicaciones bancarias a menudo tienen mucha más seguridad que otros dispositivos de (IoT) e (IA) y tienen alertas de fraude incorporadas, pero hay tantos datos disponibles que hay un incentivo para que terceros dediquen tiempo y esfuerzo para intentar obtener acceso y manipular estos datos y por extensión, redes bancarias e instituciones financieras.
En la industria de la salud, los riesgos se concentran en un nivel mucho más individual. Muchos dispositivos son dispositivos de tipo embebido que se pueden encontrar en o sobre el cuerpo humano, como marcapasos o dispositivos de transfusión. A pesar de la tecnología de salud inteligente que proporcionan estos dispositivos, corren el riesgo de malware como resultado de la ciberseguridad de bajo nivel que se instala en ellos. Esto significa que los datos almacenados son vulnerables a ser leídos por un tercero y extraídos de los dispositivos. Para evitar esto, los dispositivos deben tener un nivel de confianza incorporado para que las personas puedan evitar la intrusión y el acceso no autorizado, lo que en última instancia podría dar lugar a una situación de vida o muerte, como por ejemplo, un pirata informático podría acceder a un marcapasos y desactivarlo o deliberadamente hacer que funcione mal.
En cuanto al hogar conectado, las casas inteligentes están aportando más tecnología a los elementos que hace unas décadas habrían parecido imposibles o absurdas: neveras, iluminación, timbres y mucho más. Al igual que con la banca en línea, el atractivo es hacer que la vida cotidiana funcione sin problemas y permitir que las personas centren su atención en otros lugares. La clave para los dispositivos domésticos inteligentes es su capacidad de predecir las necesidades de una persona y sus patrones diarios, lo que hacen al rastrear la interacción de la persona con el dispositivo y grabarlo. Los datos grabados se comunican a un servidor, pero si este enlace de comunicación no es seguro, se convierte en una ruta fácil para que los piratas informáticos ingresen a su hogar. Del mismo modo, si los datos almacenados en el servidor o la base de datos no están encriptados, existe el riesgo de una violación. Si bien la idea de que una nevera sea pirateada parece casi divertido, la realidad del peligro va mucho más allá de que un pirata informático sepa cuántos huevos come. El acceso a sus datos y a todos sus otros dispositivos conectados le brinda a un pirata informático un acceso a su hogar que puede causar serios problemas de seguridad. Muchos de estos dispositivos son tan pequeños que incrustar un Módulo de plataforma confiable (TPM) no es una prioridad para un proveedor debido a que no es rentable, pero esta decisión finalmente afecta al consumidor a largo plazo.
En los últimos años ha habido un aumento espectacular en la colocación de dispositivos (IoT) en vehículos, lo que ha provocado que las personas se suscriban a la idea de monitorear cómo conducen a través de un dispositivo. Significativamente, estos se han vinculado a proveedores de seguros que permiten a los clientes instalar dispositivos que informan los datos y reducen las tarifas de seguro si conducen dentro de un determinado conjunto de parámetros. Sin embargo, los riesgos de ciberseguridad de dispositivos como estos pueden tener un efecto tanto a nivel de consumidor como corporativo, ya sea que el dispositivo sea una caja negra cableada, un complemento auto instalado que se adapta al puerto de diagnóstico a bordo del vehículo (OBD -II dongle) o una aplicación móvil que recopila datos a través del teléfono inteligente del consumidor. Una vez que un vehículo está conectado a Internet, se crea una conexión entre el proveedor de seguros y el vehículo, exponiendo los vehículos a los piratas informáticos. Los (dongles OBD-II) pueden proporcionar acceso remoto a vehículos que pueden causar daños personales graves, como desactivar los frenos de un automóvil. A mayor escala, los servidores del proveedor de seguros que reciben los datos también pueden ser un objetivo. Potencialmente, los piratas informáticos pueden obtener acceso a los sistemas de fondo y lanzar ataques remotos en flotas de vehículos completos. Finalmente, si las redes no están segmentadas adecuadamente, los piratas informáticos pueden obtener acceso a las redes de proveedores de seguros que podrían violar grandes cantidades de datos personales. Los fabricantes de vehículos también están aumentando la cantidad de sistemas inteligentes que se instalan en los nuevos modelos. Estos sistemas permiten que el vehículo acceda al teléfono, los contactos, las cámaras y todos los demás datos de un individuo asociados con la "vida inteligente". Toda esta información se retroalimenta al fabricante y sus servidores. Si se vende un automóvil sin que los datos se limpien adecuadamente, permanecerá almacenado en la nube. Esto abre una amplia gama de riesgos de seguridad, como los propietarios anteriores que tienen acceso a automóviles que están siendo utilizados por diferentes personas, lo que permite el acceso remoto a la funcionalidad del automóvil, así como a los datos del nuevo usuario. Esto también se aplica a las casas inteligentes: si una persona vende su casa, ¿se han borrado los conjuntos de datos y las credenciales de los usuarios? Si estos dispositivos no se cifran correctamente desde el principio y luego se borran después de cada usuario, expone a las personas a una gran cantidad de riesgos de ciberseguridad.




No es de extrañar que ante dicha situación, el CEO de Alphabet (Google) Sundar Pichai, afirme en un artículo en el Financial Times http://bit.ly/2Rz00If que, “No podemos limitarnos a construir nuevas tecnologías prometedoras y dejar que las fuerzas del mercado sean las que determinen cómo se usan”. Alphabet ha sido el mayor inversor mundial en I+D en el año 2019 con 18.270 millones de euros, 19,29 veces más que Telefónica. Sin embargo, en esta afirmación existe el reconocimiento implícito que la tecnología sin regulación y un código ético puede vulnerar con sus “deepfakes”, (las técnicas de “deep learning” suponen tanto el problema como la solución a la hora de detectar montajes hiperrealistas en vídeo), los cimientos de la sociedad moderna al no distinguir la sociedad la verdad de la mentira. Aunque la Comisión Europea haya publicado un libro blanco sobre la (AI), en el cual algunos usos de la misma se aplacen su aplicación durante cinco años con el fin de encontrar soluciones a los problemas, la tecnología va muy por delante de los reguladores y gobiernos. 
                                             http://bit.ly/369ymXy
Para terminar este post, decir que en el año 2017, Peter Thiel dio a un joven fundador con talento 200.000 dólares, que 2 años más tarde se convirtieron en acciones de Clearview AI. Casualidades de la vida, que su afinidad política al partido republicano haya sido el motor de expansión de dicho sistema de reconocimiento facial, como lo es que sea el mayor accionista de la compañía más poderosa de Internet, Palantir, más que Google. La misma sobrevive básicamente de los contratos de big data que le proporcionan los gobiernos federal y locales de los Estados Unidos. 


Ya lo dijo Alan Turing: “Solo podemos ver poco del futuro, pero lo suficiente para darnos cuenta que hay mucho que hacer”.
 



No hay comentarios:

Publicar un comentario