Según reveló la Agencia de
Seguridad Nacional (NSA) estadounidense, ella misma es capaz de burlar la
codificación que resguarda a millones de páginas en internet.
Ahora, los expertos en ciberseguridad
quieren renovar la protección en la red. Sin embargo, reconocieron que la
tarea no es fácil, en parte porque la ciberseguridad ha recaído en gran medida
en brillantes científicos del gobierno que ahora parecen sospechosos para
muchos.
Los tecnólogos dicen que se sienten
traicionados por el hecho de que la NSA, que ha contribuido a desarrollar
algunos importantes estándares de seguridad, esté intentando asegurarse de que
sean lo suficientemente débiles como para que la agencia los pueda vulnerar.
“Tenemos la suposición de que podrían usar su
capacidad para hacer unos bajos estándares, pero eso dejaría sin seguridad a
todo el mundo en Estados Unidos”, dijo Matthew Green, profesor de criptografía
de la Universidad Johns Hopkins.
“Pensábamos que nunca estarían tan
locos como para disparar contra el suelo que nos mantiene en pie, y ahora no
estamos tan seguros”, dijo el docente.
El también jefe del grupo de
voluntarios a cargo de las normas tecnológicas fundamentales de internet dijo
que el panel intensificará su trabajo para que la codificación se añada al
tráfico normal de la red y para fortalecer el denominado estrato seguro que
protege a bancos, el correo electrónico y a otras páginas que comienzan con
“https”.
“Este es uno de los peligros a los
que nos enfrentamos en la era en red”, dijo Jari Arkko, un científico de
Ericsson que preside el Equipo de Trabajo de Ingeniería en internet. “Tenemos
que responder a las nuevas amenazas”, dijo.
Después de Snowden
Otros expertos coincidieron al
responder sobre las informaciones de prensa basadas en los documentos del exanalista de la NSA Edward Snowden que mostraban que
la NSA había manipulado esos estándares.
Los documentos que obtuvieron The
Guardian, The New York Times y otros medios muestran que la agencia trabajó
para introducir vulnerabilidades en las herramientas de codificación comercial,
influyó de forma encubierta en otros diseños para que permitieran accesos en el
futuro y debilitó los estándares de todo el sector para beneficio de la
agencia.
Junto con otras técnicas, esos
esfuerzos llevaron a la NSA a decir internamente que tenía la capacidad de
acceder a muchas formas de tráfico de internet que se habían considerado
seguras, entre ellas al menos algunas redes privadas virtuales, que crean redes
seguras en internet, y el nivel general de seguridad para sitios web empleados
por la banca o el comercio online.
La oficina del director de
Inteligencia Nacional dijo el viernes que la NSA “no estaría haciendo su
trabajo” si no tratara de contrarrestar el uso del codificado por parte de
adversarios como “terroristas, ciberdelincuentes, traficantes de personas y
otros”.
Green y otros dijeron que una gran
cantidad de protocolos de seguridad se necesitaban escribir “desde cero” sin la
ayuda del gobierno.
Tensión
Vint Cerf, autor de algunos de los
principales protocolos de internet, dijo que no sabía si la NSA había causado
mucho daño, subrayando que la incertidumbre sobre las nuevas informaciones en
torno al uso que la NSA ha dado a sus capacidades.
“Existía una tensión entre la misión
de vigilar y la de proteger las comunicaciones, y esa tensión se resolvió hace
algún tiempo a favor de la protección al menos para las comunicaciones estadounidenses”,
dijo Cerf.
El empleador de Cerf, Google,
confirmó que está codificando los datos entre sus centros, un proceso que se
aceleró tras salir a la luz los documentos de Snowden en junio.
El autor Bruce Schneier, una de las
figuras más admiradas en la criptografía moderna, escribió en una columna en el
Guardian que la NSA “ha minado un contrato social fundamental”, y que los
ingenieros del mundo tenían “la obligación moral” de recuperar internet.
Fuente: cromo.com

No hay comentarios:
Publicar un comentario