Todo lo que hay que tener en cuenta para el Cole 3.0 (School 3.0)

En estos últimos tiempos las nuevas tecnologías están haciendo acto de presencia en las aulas de manera más que acusada. La inserción de tabletas en el día a día de todos nosotros y el hecho de que los niños sepan usar mejor que cualquier tecnólogo estos equipos, ponen de manifiesto las muchas utilidades que dentro del entorno educativo pueden llegar a aportarnos este tipo de dispositivos  (ya comienzan a existir estudios derivados de grupos de investigación interesantes: http://www.youtube.com/watch?v=bsGfbFO8kZw).

Ahora bien, ¿alguien ha pensado en cómo modifica la estructura de conectividad y seguridad de un centro docente el uso de estos dispositivos en las aulas?  Pues creo que alguno de nosotros sí lo ha hecho, y eso es lo que me gustaría desgranar en este artículo:

Podemos decir que en el momento en que proliferan las tabletas en el entorno escolar son dos las áreas en las que el impacto es mayor:

Conectividad: Tanto en e/s INet como en Wifi
Seguridad: Necesitamos mayor control y una nueva pieza del puzle, una herramienta de gestión de dispositivos

Comencemos con la concurrencia de conexiones hacia la red Wifi, que de repente crece de manera significativa… ¿Quién habría imaginado hace 6 ó 7 años casi todas las aulas de nuestros colegios con necesidad de conectividad para al menos 20 dispositivos cada una?  Ese es el primer escoyo a saltar. Y se salta con cierta facilidad siempre y cuando la conectividad Wifi que se eligiera en su momento fuera de calidad, al menos mediana, y pueda ser ampliada con más APs.

El segundo paso es que esos APs puedan ser gestionados de manera sencilla y centralizada, a mayor número de APs más necesidad de una buena plataforma WiFi con gestión, control y despliegue centralizado y semi-asistido. Soluciones hay en el mercado y es bastante fácil elegir bien, eso sí tendremos que rascarnos un poco más el bolsillo.

Una vez solucionada la gestión WiFI, pasamos al siguiente punto, la conectividad INet , o en palabras coloquiales “internet”. Muchos más dispositivos implican mucho más consumo / necesidad de ancho de banda y esto, mientras que en nuestra ubicación haya buena cobertura, tiene fácil solución, ampliamos o añadimos líneas y arreglado.

Ahora tenemos un gran despliegue de dispositivos y una buena conectividad en el aula, es hora de abordar el tema de la seguridad, tened en cuenta que el equipo ya no lo controla el profesor  y que los niños de hoy día saben más que muchos tecnólogos de antaño.

En este punto de la seguridad tendríamos sobre la mesa  dos áreas de revisión:

  1. Seguridad perimetral (FW): Cortafuegos, filtrado de contenidos, antivirus, …etc, es decir,  todo lo que es necesario para que tengamos control de lo que sale y entra de y a nuestra red. Más o menos estamos en la media de Europa … mal pero mejorando … pero que eso no sea una limitación para quedarnos tranquilos, debemos tener en cuenta que ahora será más probable que suframos el ataque de hackers interesados en explotar nuestros sistemas.  Con la implantación de School 2.0 se entiende que tendremos que controlar más frentes, ya no solo hablaremos de controlar la navegación, tendremos otros servicios, como por ejemplo  la Tele-formación, que posibilita dar clase a niños con bajas de larga duración por enfermedades que imposibilitan la asistencia física pero no prestar atención,  por videoconferencia (ej. Una pierna rota) o los trabajos en grupo con otros colegios, una especie de “intercambio sin desplazamiento”.
  2. Control y gestión: Ahora no se trata de controlar sólo un PC que se conecta a una pizarra digital y que únicamente es usado por el profesor. Ahora se trata de “gestionar y controlar”  N dispositivos (ese N puede multiplicar por 20 o por 200 los equipos actuales), y nos tenemos que preocupar por qué pueden instalar en dichos equipos los alumnos, quién puede hacerlo, qué uso se hace de las cámaras…etc, incluso podemos llegar a necesitar saber dónde se encuentra el propio dispositivo, cuando un alumno se lo lleve sin estar permitido.

Pues bien, hay respuestas y soluciones. A nadie se nos escapa, como he dicho anteriormente, que un niño de 11 años sabe más que nosotros y, seguramente, instalar una app no permitida o hacer una foto y mandarla por Facebook es una posibilidad que se abre en el momento de tener una tableta en la mano, y no nos sirve que existan posibilidades de control de usuario y parental en IOS y en Android, porque para ellos sería muy fácil resetear la máquina y volver a instalar las apps.  Necesitamos una tecnología más avanzada y que de respuesta a estas necesidades, una tecnología como MDM (Mobile device management), que permite tanto el control del dispositivo como el control de la ubicación del propio equipo.

Todo esto y mucho más es lo que me gustaría que pensarais, la tecnología es apasionante, tenemos avances que los niños controlan desde que nacen,  no hay que tener ni miedo ni reparos a la hora de potenciarlos y usarlos, tan sólo hay que tener controlado el uso, como tantas otras cosas de la vida. Para los que se pierden, hay muy buenos asesores tecnológicos que entienden y estudian estos entornos, otro día hablamos de ellos, y también hay empresas con mucho conocimiento en integración de sistemas, que hasta ahora daban sobre todo servicios a compañías, que pueden aportar muchísimo en la implantación de buenas plataformas en los centros de formación.

Charlamos de más cosas sobre estas en otro artículo… como siempre en AE nos hemos intentado adelantar para dar soluciones a este “problemilla” y poner las cosas fáciles: http://www.alhambra-eidos.com/es/TIC/centros-educativos.html

Fuente: Alhambra Eidos

Marta Martínez, IBM: “Cloud computing abre nuevas oportunidades al negocio”

IBM presentó en Madrid su visión y estrategia cloud para los próximos años. En un encuentro al que han acudido más de un centenar de representantes del mundo económico y empresarial español, la compañía ha expuesto la revolución que está suponiendo este tipo de tecnología al facilitar la transformación de las empresas, abriendo así las puertas a nuevas oportunidades de negocio.

Marta Martínez Alonso, presidenta de IBM España, Portugal, Grecia e Israel, ha afirmado: “La informática en la nube abre las puertas a nuevas oportunidades de crecimiento y negocio, tanto para las grandes corporaciones como para las pymes”. Por su parte, Antonio Lubrano, director de Servicios Tecnológicos de IBM España, Portugal, Grecia e Israel, ha apuntado: “Lo que marca la diferencia de IBM es la inversión de más de 7.000 millones de dólares realizada desde 2007 lo que nos permite ofrecer la oferta más completa y segura del mercado”.

El gigante azul tiene más de 100 soluciones de SaaS en cloud, miles de expertos con un profundo conocimiento industrial y una red de 40 nuevos centros distribuidos por todo el mundo, uno de ellos en España. IBM procesa más de 5.500 millones de transacciones de clientes en su nube pública y espera alcanzar los 7.000 millones de dólares de facturación en este área en 2015.

Con la adquisición de SoftLayer en 2013 IBM ha dado un gran paso para completar su oferta cloud. Esta infraestructura proporciona una base segura y escalable para ofrecer globalmente la extensa oferta de software y soluciones de IBM en modo de servicios cloud. La red global de centros en la nube de IBM facilitará también la posibilidad de realizar un rápido desarrollo y puesta en el mercado de soluciones móviles, analíticas y sociales.

Fuente: Redes & Telecom.

El éxito del MailTrack, la aplicación española que permite saber si han leído tus e-mails

Los españoles Nacho González, Gil Casadevall, Gabriel García y Conrado Lamas fundaron la ‘start-up’ MailTrack con un original producto para añadir más funciones de seguimiento al correo electrónico, entre las que destaca un ‘doble check’ para GMail, similar al de WhatsApp.

La aplicación, únicamente disponible para Chrome y compatible con GMail, ya ha superado las 25.000 descargas y el millón de e-mails enviados en unos tres meses.

Conrado Lamas afirma que tras la puesta en marcha de la aplicación, “en poco más de tres meses, llegamos a 25.000 instalaciones”. Los creadores están trabajando para crear versiones para móviles, para navegadores como Firefox y para servicios de correo electrónico como Yahoo! o Hotmail.

El proyecto de MailTrack sigue en pleno desarrollo: “Planeamos funciones extras que complementarán el uso del e-mails, como otros tipos de notificación de aperturas (por correo, por popup…)”, explica Lamas.

Además, MailTrack es gratuito, porque como afirma Lamas, “seguimos el modelo freemium: nuestra función básica es gratuita a todos los usuarios, mientras funciones de valor agregado pueden ser conseguidas a través de planos de pago”.

Fuente: 20minutos.es.

En 2013 se crearon 30 millones de nuevas muestras de malware, 82.000 al día

2013 fue un año movido en cuanto a producción de malware. Aparecieron cerca de 30 millones de nuevas muestras de esta tipo de virus, es decir, 82.000 al día. Estos datos se desprenden del informe anual realizado por Panda Security. Desde esta empresa apuntan que las cifras no dejan de sorprenderles ya que registraron 145 millones de muestras de malware, es decir, un 20% de todo el que ha existido en la historia.

Los nuevos malware y el ciberespionaje fueron los grandes protagonistas del año pasado. 31.5% de los ordenadores del mundo fueron infectados, una cifra similar a la evidenciada en 2012.

De forma más detallada, si se comparan las cifras con los años anteriores, una de las cosas que destaca para Panda Security es el aumento de virus. Estas amenazas pasaron del 9,67% al 13,30% en 2013. «La explicación viene principalmente de dos familias de virus, Sality y Xpiro. La primera existe desde hace varios años, mientras que la segunda es algo más reciente, siendo capaz de infectar ficheros ejecutables tanto de 32 como de 64 bits», explica Luis Corrons, Director Técnico de PandaLabs en Panda Security.

Apuntan que la popularidad de estos virus recae en que una de sus funciones es el robo de información, «lo que implica que hay ciberdelincuentes propagándolos activamente para obtener un beneficio económico».

Los troyanos vuelven a ser el tipo de malware más creado en 2013, con un 78,97% de todos los malware. Desde Panda Security apuntan que al parecer los ciberdelincuentes han logrado infectar con troyanos más ordenadores.

A nivel geográfico, los países más infectados del mundo están liderados por China, con un 54,03%, seguida por Turquía (42,15%) y Ecuador (40,35%). Por otra parte, destacan que nuevo de los países con un índice de infección más bajo son europeos, siendo Japón el único que no perteneciente al Viejo Continente. Los países escandinavos copan las primeras posiciones: Suecia se sitúa a la cabeza, con un 20,28% de infecciones; seguido de cerca por Noruega (21,13%) y Finlandia (21,22%).

Ciberespionaje en el mundo

Panda Security dedicó buena parte del informe a tratar el tema del espionaje a través de internet. Apuntan que antes de las revelaciones de Snowden, ese apartado estaba dominado por China y sus prácticas. «Durante 2013 las revelaciones realizadas por el antiguo trabajador de la Agencia de Seguridad Nacional (ASN) norteamericana, Edward Snowden, han puesto a la NSA y al gobierno norteamericano en el ojo del huracán», apuntaron.

Tendencias para este año

Creación de malware: 2014 será el año de la historia en el que más malware se cree, aunque la mayoría de ellos serán variantes de amenazas ya conocidas.

Vulnerabilidades: «Java ha sido la causa de la mayoría de infecciones ocurridas a lo largo de 2013, y todo indica que lo seguirá siendo a lo largo del año 2014». Esto debido a que está instalado en miles de millones de ordenadores y tiene muchos agujeros de seguridad.

Ingeniería Social: «La ingeniería social es un apartado en el que los ciberdelincuentes han brillado por su creatividad. Tras el uso de vulnerabilidades, la segunda causa de las infecciones que sufren los usuarios son ellos mismos, tras caer víctimas de algún engaño. Aunque muchos de ellos llegarán a través de emails, la mayoría tendrán lugar en redes sociales»

Móviles: Android seguirá siendo el principal objetivo de los ciberdelincuentes, y se batirá un nuevo récord de amenazas para esta plataforma.

Ransomware: Junto con los troyanos bancarios y bots, las técnicas de ransomware será popular: con esta de un rescate para volver a utilizar el equipo y recuperar la información.

Internet of Things: El número de dispositivos conectados a Internet no deja de aumentar, y esto significa que son extremadamente vulnerables a agujeros de seguridad, por lo que es muy probable que comencemos a ver ataques que tengan como objetivo este tipo de dispositivos.

Fuente: ABC.es.

MTP y SM2 se alían

Las consultoras realizarán proyectos conjuntos en el área de Calidad del Software y de Ingeniería de Requisitos, tras la firma de un acuerdo.

Con el fin de presentar este acuerdo a los clientes de SM2, MTP ha organizado, en la sede de la compañía mallorquina, un seminario sobre Aseguramiento de la Calidad del Software, con el objetivo de mostrar a las compañías asistentes cómo las actividades de ingeniería de requisitos y pruebas pueden ayudar a las empresas a optimizar los costes, plazos y calidad de sus tecnologías.

En este seminario se abordó el aseguramiento de la calidad de extremo a extremo, aportándose recursos de mejora y exponiéndose soluciones de aseguramiento de la calidad para el, cada vez más relevante, canal móvil. Por otra parte, se mostraron los principales errores que se comenten dentro de la disciplina clave de Requisitos.

“SM2 comparte con MTP dos valores fundamentales en su estrategia: especialización e independencia. Estamos seguros de que el camino que ahora comenzamos juntos resultará muy enriquecedor para ambas compañías”, ha comentado Juan Manuel Ferrer, director general de MTP.

Fuente: ComputerWorld.

HP lleva la virtualización a las infraestructuras de telecomunicaciones

HP ha dado a conocer OpenNFV, el programa de virtualización de redes anunciado por la compañía en el pasado Mobile World Congress. Con OpenNFV, HP aporta un completo ecosistema abierto para ayudar a los operadores y proveedores de servicios a hacer frente a los nuevos retos del mercado de telecomunicaciones.

Como una “verdadera revolución” ha calificado José María de la Torre, vicepresidente y director general para España y Portugal de HP Enterprise Group, la virtualización de las funciones de red (NFV, Network Functions Virtualization), ya que supone “el cambio más significativo que se ha producido en la industria de telecomunicaciones en los últimos 20 años”. Y OpenNFV es la propuesta de la compañía en este nuevo mercado. Se trata de un completo programa basado en estándares abiertos con el que HP quiere proporcionar a los operadores una solución “para hacer frente a los retos que plantean la nueva forma de consumir las telecomunicaciones y los jugadores over-the-top, permitiéndoles desplegar nuevos servicios de una manera más sencilla, rápida y económica, haciendo en minutos lo que antes suponía meses”. Frente a otras alternativas NFV, la de HP se diferencia, según José María de la Torre, por aportar una “solución completamente abierta con capacidad para abarcar todo el ecosistema. Somos únicos por nuestra capacidad para proporcionar todas las piezas necesarias”.

El programa OpenNFV se compone de la Arquitectura de Referencia OpenNFV (NFV RA), los HP OpenNFV Labs –dos en Estados Unidos y un tercero en la ciudad francesa de Grenoble- y un ecosistema completo de partners. En su conjunto, “OpenNFV proporciona un entorno abierto y probado para la transformación hacia NFV que mejora los costes operativos, reduce los costes de capital, agiliza el tiempo de llegada al mercado y acelera la innovación a través de una plataforma abierta”, ha asegurado César Vallecillo, director de HP Networking Iberia.

NFV RA incluye servidores físicos, almacenamiento y redes, virtualización, controladores para redes definidas por software (SDN), gestión y orquestación de recursos, análisis, aplicaciones de telecomunicaciones y un sistema completo de soporte a operaciones (OSS). Basada en estándares, esta arquitectura incorpora el Router de Servicios Virtuales de HP, diseñado para entornos virtuales, como clouds públicas multiusuario y despliegues de equipos de cliente virtualizados. Integra también capacidades SDN como HP Virtual Application Networks, el Controlador de SDN y el Ecosistema abierto HP SDN.

Actualización de aplicaciones

Como parte de OpenNFV, HP está lanzando aplicaciones que han sido actualizadas para operar como funciones NFV, como HP Virtual Home Subscriber Server, diseñado para permitir a los operadores a gestionar las identidades de sus clientes a través de múltiples redes. Otra aplicación es HP Multimedia Services Environment, que consolida aplicaciones de redes sobre una infraestructura común y lanza aplicaciones multimedia. HP Virtual Content Delivery Network Software, por su parte, trata la entrega física de activos de medios para cualquier tipo de servicio de contenidos por Internet.

“SDN y NFV, además de consolidarnos como segundo proveedor de redes, nos están aportando visibilidad en este mercado, en el que estamos presente desde hace mucho tiempo”, ha afirmado César Vallecillo. “Durante 2013 HP participó en varios pilotos NFV en todo el mundo y en España colaboramos con Telefónica en su proyecto Unica con el que el operador está virtualizando sus infraestructuras”.

Fuente:  ComputerWorld.

La seguridad en los registros de identificación personales, cada vez más amenazada

Durante los pasados meses han aumentado los ataques a registros de identificación personales. Las industrias y sectores más atacados son los de servicios tecnológicos (38%), las administraciones públicas (20%), los mercados financieros (12%) y las empresas relacionadas con entretenimiento y medios de comunicación (9%). Estas son algunas de las conclusiones del informe de IBM, X-Force-Inteligencia sobre amenazas.

La compañía explora, en la primera versión del informe trimestral, las últimas tendencias en seguridad incorporando como novedad los datos recogidos por los investigadores de Trusteer, compañía adquirida por IBM, que tiene soluciones de prevención de delincuencia informática en los dispositivos de los usuarios finales, protegiendo a las organizaciones contra el fraude financiero y las brechas de seguridad en los datos.

Los ataques más comunes vuelven a ser, con un 20%, los de denegación de servicio distribuidos (Distributed Denial of Service, DDoS), seguidos de los SQL injection (insertar código SQL intruso para alterar el funcionamiento de un programa), con un 13%, y malware (10%).

Además, según el estudio, se filtraron más de 500 millones de registros de información personal identificable (Personally Identifiable Information, PII). Algunas de las brechas más grandes se han producido no tanto en soluciones como procesadores de pago como en sistemas de punto de venta. Además, los atacantes están utilizando métodos de ataques cada vez más sofisticados para maximizar la duración y la gravedad de estas infracciones.

La utilización de los lenguajes de programación muy populares por parte de las organizaciones las están exponiendo cada vez más a serios ataques de seguridad. Estas amenazas pueden ser muy difíciles de mitigar debido a que se ejecutan en aplicaciones de confianza.

El informe no ha registrado incidentes significativos que corroboren las preocupaciones existentes en torno a la tendencia de Bring Your Own Device (BYOD). Aunque esos dispositivos puedan recoger algún tipo de información de la empresa, el mayor riesgo no son esos datos, sino las credenciales.

La divulgación de vulnerabilidades públicas han aumentado más con respecto a los niveles de 2012, aunque las realizadas en aplicaciones web, de cross-site scripting(introducir código JavaScript u otro lenguaje similar en páginas web vistas por el usuario evitando medidas de control) y de inyección SQL mantienen una tendencia a la baja. La consecuencia más frecuente han sido los accesos a aplicaciones y sistemas no autorizados, seguida del cross-site scripting, que generalmente implica ataques contra aplicaciones web.

Fuente: ComputerWorld.

Siete tendencias en Business Intelligence que marcarán el sector en 2014

QlikTech analiza 7 puntos clave para 2014. La consumerización de TI ha dado paso a la humanización tecnológica.

1. Interacción humana e informática (Humanización tecnológica): cada vez más se están eliminando las barreras entre los humanos y las tecnologías, sobre todo con la llegada de los dispositivos táctiles. Hasta ahora habíamos hablado de la “consumerización de IT”, pero ahora se evoluciona a una nueva fase , la “humanización tecnológica”. Esto significa que la tecnología ha de construirse teniendo en cuenta la forma natural en la que los seres humanos la usamos y no debe condicionar esta forma natural en la que queremos interactuar con la misma.

Los usuarios no quieren ver los datos sólo en reportes estáticos sino que quieren sentir los datos e interactuar con ellos. Quieren usarlos para construir un proyecto, persuadir a otros o tomar decisiones conjuntas basadas en hechos. Esta interacción no tiene barreras, permitiéndonos acceder a los datos en cualquier lugar desde cualquier dispositivo. Las soluciones de BI deben capacitar a los usuarios para explorar sus datos y descubrir conocimientos escondidos, de una forma natural.

2. Desarrollando y acelerando el boom de los datos: con las enormes cantidades de datos disponibles hoy en día, necesitamos una forma de reducir el ruido de información. Tenemos un acceso sin precedentes al poder y almacenamiento informático y, cada vez más, los usuarios piden un mejor y mayor acceso a todos sus datos, sin importar de dónde vengan y cuáles sean sus características. Las plataformas de BI necesitan adaptarse a este crecimiento de los datos y proporcionar soluciones que puedan analizar información de múltiples fuentes para proporcionar un mejor contexto para la toma de decisiones.

3. Aumento de la liberación de la información: una nueva generación que ha crecido con la tecnología se está incorporando al mundo empresarial y sus expectativas son diferentes a las de generaciones pasadas. Esta nueva generación de trabajadores ha crecido con Internet y es menos pasiva con los datos. Llevan sus propios dispositivos allí donde van y esperan que sea fácil unir datos, comunicarse y colaborar con sus compañeros. Las soluciones de BI deben dar a todos los usuarios, desde la dirección a los equipos de diferentes áreas de negocio, la posibilidad de crear sus propios modelos de análisis de datos, que les permita identificar tendencias y obtener conocimiento que de otro modo no hubieran encontrado.

4. La Evolución y Elevación del rol de IT: todos hemos leído sobre que el nuevo rol de IT está cambiando. La mayoría de los CIOs se pregunta qué hacer para impulsar la innovación y esto pasa por ser un habilitador de información y no tanto un suministrador de esta, proporcionando a los usuarios de negocio las herramientas que necesitan para tener éxito. Sin embargo, para lograr esta transformación, necesitan trabajar con herramientas útiles y proporcionar apps o productos de información intuitivos y fáciles de manejar.

5. Diferenciarse a través de la Explotación de la Información: a medida que el tiempo cambia, así lo hace la forma de diferenciarse. Hoy en día las compañías se diferencian basándose en la información. Y las aplicaciones analíticas deben ayudar a las compañías a acceder a los datos que necesitan para diferenciarse de la competencia. Ya no se trata sólo de tener el dato sino de tener el dato correcto.

6. Necesidad de velocidad y agilidad: pero para obtener el máximo retorno de la información, el análisis debe darse con la velocidad que la gente necesita. Las cosas van cada vez más rápido, por eso las herramientas de BI deben poder responder a la demanda de velocidad y agilidad.

7. Transformación de los Análisis: hoy en día el negocio de las empresas avanza muy rápido y su aproximación hacia la información avanza igual de rápido. Ya no vale reportar algo que ha pasado sino que hay que entender y monitorizar lo que está ocurriendo hoy. Esto requiere un cambio en el BI para conectar cosas que aparentemente no tenían relación y descubrir información oculta en los datos para ayudar a anticiparse o incluso predecir lo que va a venir. La próxima generación de BI debe enfocarse en permitir una toma de decisiones mejor y más natural.

Fuente: Diario TI.