Por qué AI y Viztech tienen la clave para una Internet más segura
Las compañías de medios en línea están persiguiendo su cola cuando se trata de vigilar material terrorista y otro contenido peligroso y ofensivo. Pero existe tecnología basada en inteligencia artificial que puede detectarla antes de que entre en funcionamiento, dice David Fulton, director ejecutivo de WeSee.
Las principales figuras tanto del gobierno como del mundo académico se han centrado en una causa común en los últimos meses:la mejor manera de resolver el creciente problema del contenido terrorista en línea. Sin embargo, el jurado está deliberando sobre si los grandes reproductores de medios digitales, como Facebook, Twitter y YouTube, están a la altura del trabajo, a pesar de estar bajo la creciente presión de la legislación pendiente. La buena noticia es que parece que una nueva y poderosa tecnología de reconocimiento de imágenes basada en el aprendizaje profundo y las redes neuronales podría proporcionar una solución.
En la misma semana de junio en que los legisladores alemanes aprobaron un proyecto de ley que obligaba a las principales empresas de Internet a desterrar el contenido "evidentemente ilegal" en un plazo de 24 horas o enfrentarse a multas de hasta 57 millones de dólares, se celebró una conferencia en la Universidad de Harvard titulada:Discurso perjudicial en línea:en la intersección de Algoritmos y Comportamiento Humano. Se analizó la mejor manera de restringir el contenido nocivo en línea y fue coanfitrión del Centro Berkman Klein para Internet y la Sociedad, con sede en Harvard, el Centro Shorenstein sobre Medios, Política y Políticas Públicas de la Escuela Kennedy de Harvard y el Instituto para el Diálogo Estratégico. (ISD), un grupo de expertos con sede en Londres.
El discurso de apertura afirmó que el extremismo en los espacios en línea puede tener un impacto enorme en la opinión pública, la inclusión y la política. También citó la enorme brecha, en términos de recursos, activismo e incluso investigación básica, entre los problemas del habla dañina en línea y las soluciones disponibles para controlarla.
Detección automatizada
Solo unas semanas después, en septiembre, los jefes de estado del Reino Unido, Francia e Italia se reunieron con empresas de Internet en la Asamblea General de la ONU en Nueva York para discutir el tema. En un discurso antes de la reunión, la primera ministra del Reino Unido, Theresa May, amenazó a los gigantes de Internet con enormes multas si no podían encontrar una forma de detectar y eliminar el contenido terrorista en dos horas. Este lapso de tiempo es significativo, ya que en dos horas se comparten dos tercios de la propaganda, por lo que podría preguntarse si dos horas es realmente demasiado.
En respuesta, Google y YouTube han anunciado que están aumentando el uso de tecnología para ayudar a identificar videos automáticamente. Mientras tanto, el problema continúa y solo va a empeorar. Un artículo reciente en el Telegraph reveló que, según cifras oficiales, 54.000 sitios web diferentes que contienen consejos sobre la fabricación de bombas y la comisión de ataques con camiones y cuchillos fueron publicados en línea por partidarios del llamado grupo Estado Islámico entre agosto del año pasado y mayo. este año.
Es más, Cisco ha pronosticado que para 2020 habrá 65 billones de imágenes y seis billones de videos subidos a la web, lo que resultará en que más del 80% de todo el tráfico de Internet se base en imágenes o videos en menos de tres años. Es mucho contenido para monitorear en busca de material extremista y otro material inapropiado, pero los últimos avances en inteligencia artificial (IA) podrían ser la clave para resolver este enigma.
Campo emergente de Viztech
Los pioneros en el nuevo campo de Viztech han desarrollado un filtro de video para adultos y violencia altamente efectivo. Utiliza inteligencia artificial para identificar terroristas y otros contenidos digitales dañinos automáticamente, y no dentro de las dos horas posteriores a su publicación, sino antes de que se publique. Puede detectar contenido digital inapropiado, como una bandera de ISIS o el rostro de un conocido predicador del odio. Viztech también puede detectar y clasificar videos, así como imágenes fijas, de manera rápida y eficiente, procesando información como el cerebro humano, pero hasta 1,000 veces más rápido, por lo que no solo imita el comportamiento humano, sino que se desempeña mucho mejor.
Impulsado por el aprendizaje profundo y las redes neuronales, es similar a la tecnología detrás del sistema de reconocimiento facial del iPhone X, pero mucho más sofisticado. En lugar de ser reaccionario, es predictivo, filtra, identifica y categoriza el contenido de video incluso antes de que aparezca en línea. En Viztech se encuentra la solución para frenar el material terrorista en línea y sus desafortunados efectos, que es algo que los gobiernos, los académicos y, por supuesto, las empresas de medios digitales están desesperados por hacer. En última instancia, tiene la clave para una Internet más segura para todos.
David Fulton es director ejecutivo de WeSee.
Tecnología de Internet de las cosas
- Internet de las cosas y el papel de 5G en los vehículos conectados
- Por qué Internet de las cosas siempre necesitará un toque humano
- Hiperconvergencia e Internet de las cosas:Parte 1
- Desbloquear la división de red de núcleo inteligente para el Internet de las cosas y los MVNO
- Seguridad cibernética e Internet de las cosas:seguridad de IoT preparada para el futuro
- ¿Qué industrias serán las ganadoras en la revolución de IoT y por qué?
- Ciberseguridad e Internet de las cosas:¿es hora de la biometría?
- Las aplicaciones de la vida real de IoT y por qué la duración de la batería es fundamental
- Por qué Internet de las cosas necesita inteligencia artificial
- Los estándares tienen la clave para desbloquear la casa conectada
- Por qué usted y su empresa necesitan análisis de realidad virtual (Parte 2)