jueves, 26 de enero de 2012

Informe Sociedad de la Información. España 2011

[Nota: Este post también lo hemos publicado en el blog de la División de Telecomunicaciones de ALTRAN España donde tenemos una sección sobre Observación del Ecosistema]

Esta semana se ha presentado en la Fundación Telefónica el Informe de la Sociedad de la Información en España 2011. Nos han gustado mucho los 10 puntos de inflexión que Javier Nadal ha ido desgranando en una presentación clara y concisa a raíz de los resultados del informe.


Crecimiento de la banda ancha móvil frente a la banda ancha fija



Ha comenzado la era post-PC con crecimiento de venta de smartphones (74%) y tablets (290%) siendo los ámbitos del multidispositivo el entretenimiento multimedia, los juegos, la navegación y la lectura.

Aumento del comercio electrónico tanto en uso como en volumen de ventas

SmartCities como primer paso hacia el Internet de las Cosas (IoT) con ejemplos piloto específicos en Málaga, Santander, Barcelona ó San Sebastián

Aumento de tareas que se hacen ya por Internet sobre todo en formación, compras, viajes y operaciones bancarias/administrativas

Cambio de comportamiento en cuanto a la posesión de los contenidos: 5% de descargas frente al 10% de consumo online con mayor satisfacción

Con la redes sociales surge la figura del comunicador/consumidor digital permanente

Brechas digitales diferenciadas por edades y sexo. Ante innovación primero lo prueban los hombres y 1 año después las mujeres. En redes sociales, viceversa.

Las grandes empresas de Internet comienzan a salir en bolsa

Se verifica que en todo segmento tecnológico aparece un gran actor que se lleva la mayor cuota. Frente a Operadores, Fabricantes e Internet las entidades regulatorias (que sólo se fijaban en Operadores) ahora tienen que tener en cuenta también a los grandes de Internet.

Desde la mediateca de la Fundación Telefónica se puede ver en streaming la presentación completa . Y para terminar este resumen aquí va este estupendo vídeo con los datos del informe.

miércoles, 25 de enero de 2012

eCall: la SIM que vendrá incluida en los coches a partir del 2015


_highl1.jpeg
La Unión Europea se ha planteado como objetivo que el año 2015 todos los coches nuevos lleven incorporado un sistema de aviso automático en caso de emergencia. Con el nombre de eCall, utilizará tecnología GPS y un módulo GSM para acelerar el tiempo de respuesta ante un accidente.

La idea que viene predominando en los últimos años es que cada vez los coches sean más inteligentes, tomen consciencia de su entorno, y sean un elemento activo en la asistencia de un accidente con la ayuda de las tecnologías inalámbricas, ayudando a reducir una de las principales causas de mortalidad en la Unión Europea.

eCall es la iniciativa que surge en este sentido desde la Unión Europea, en la que vehículo tendrá toda una serie de sensores (principalmente acelerómetros) conectados a una unidad de control para que, en caso de determinar que ha habido un accidente, notificar al 112.

Actualmente el 0,7% de los vehículos cuentan con un sistema automático de llamada de emergencia, pero en 2015 se quiere que todos los modelos nuevos de coches y vehículos ligeros cuenten con él.

En la llamada se indica la posición exacta de un vehículo accidentado, la hora del incidente y, opcionalmente, la dirección IP del usuario en caso de tener asociado un contrato con un operador.


ec1.jpg


Los estudios que maneja la propia Comisión Europea de la Sociedad de la Información indican que si en 2010 todos los coches hubiesen tenido el sistema eCall, el número de víctimas mortales en accidentes de tráfico se podría haber bajado entre un 5 y un 15 por ciento, reducir el tiempo perdido en atascos entre un 10 y 20% y unos importantes ahorros económicos.

Este es un claro ejemplo de lo que las comunicaciones M2M (Máquina a Máquina) pueden aportar. Los dispositivos con una tarjeta SIM se comunican entre sí, normalmente por Internet, y toman la iniciativa por delante de los humanos. M2M se considera uno de los mercados que tendrá mayor auge en los próximos años.

martes, 24 de enero de 2012

20 Eventos 2011 (mapa visual)

¿Podrías enumerar los 20 eventos de Internet 2011 que representa este mural?

lunes, 23 de enero de 2012

Social Media en grandes empresas. Debilidades

Desde mi experiencia dentro del Community Team focalizado en la incorporación de una gran empresa al mundo del Social Media he descubierto, que quizá debido a la brecha digital o a la diversidad de departamentos se produce una serie de hechos cuestionables:
  • No hay partidas de dinero dedicadas a la gestión e involucración SocialMedia
  • Se confunde la figura del Community Manager con la de "administrador de sistemas"
  • Se enfoca más desde una funcionalidad de Márketing que de Comunicación real.
  • Se trabaja con la idea de que el SocialMedia es un "proyecto de publicación en redes" como una campaña estrella, limitada y puntual, cuando realmente lo que se valora en los medios sociales es la humildad, la constancia y la perseverancia.
  • Se hacen informes buscando el dato cuantificable y su maxificación (tener muchos seguidores, tener muchos comentarios, tener muchos likes,...) cuando lo importante es la calidad.
  • En las redes sociales empresariales se piensa siempre en publicar hacia un target externo (clientes, referentes externos) pero se piensa poco en que la audiencia vital es también el conjunto de empleados a la que hay que cuidar mucho porque provocará en el futuro la difusión del contenido.
  • Se crean secciones departamentales, etiquetas, apartados, estructuras CMS, cargos y roles jerárquicos entre los posibles colaboradores,... todo ello antes de poner un sólo contenido.
  • Para buscar colaboradores de contenidos, se sigue una estructura jerárquica similar a la que ya hay en el propio negocio, cuando en realidad es una redarquía que poco o nada tiene que ver con los gestores del negocio. Como dijo Ymulet "los gerentes pueden ser activadores pero no actores"
  • Se trabaja con personas que en muchos de los casos les falta el espíritu #socialholic tan necesario en este campo y tan difícil de cuantificar.
Las grandes empresas perciben, presienten la gran importancia de estar en redes, de tener presencia donde la competencia también está, de tener un canal más donde publicar sus productos y servicios, pero a veces se olvidan de escuchar sus timelines, de entender que es mejor buscar la calidad de los seguidores que la cantidad, de comprender que el paradigma del márketing ha cambiado: que no se trata de publicitar servicios en un nuevo canal sino de publicar contenidos de valor que te hagan pertenecer a un grupo de referentes (de ahí la importancia del blog, que no, no ha pasado de moda) y sobre todo, de buscar una relación entre personas que aunque afines a una marca sepan tratar el mundo social con emoción, compromiso, humor y cariño.

Departamentos: cada uno en su nube

A nivel de estrategia SocialMedia, las empresas grandes, al tener tantos departamentos tratan de expandir todos ellos y se emplean estrategias de SocialMedia particulares y casi independientes. Son como cuerdas tirando de una barca desde la orilla, cada una en un sentido, en lugar de remar todos desde dentro de la nave en la misma dirección. La figura centralizada de la marca se deja sólo para anuncios corporativos y de pseudo-autobombo que lejos quedan del verdadero valor del contenido. Craso error.

Una empresa grande, máxime cuando está navegando por los terrenos pantanosos de la inexperiencia, tendría que tener inicialmente la misma estrategia que una PYME a nivel básico en branding de marca: crear una cuenta de twitter, una página FB y un único blog. Si con el tiempo, la abundancia de contenidos va creando gran desproporción en varios de ellos se puede pensar en crear hilos diferenciados, pero nunca sin olvidar el central y sin desligarse de él. Una empresa pequeña quizá sólo tenga una persona para ello, mientras que en una empresa grande tendrá más posibilidades de que un grupo de personas generen más contenido, pero la estrategia básica debe ser la misma basada en 3 grandes conceptos: centralización, contenidos y escucha.

La importancia de la escucha y de la conversación

Por otro lado, una norma no escrita de este mundo 2.0 es que los contenidos son los que dan lugar a todo lo demás. Es decir:
  • Se deben crear contenidos para posteriormente etiquetarlos, pero no al revés. (Error típico de las grandes compañías al crear primero las etiquetas y temas)
  • Se deben validar a las personas colaboradoras no en función de su cargo en la compañía sino de los contenidos que genera. Error típico de las grandes compañías al poner como responsables de community a personas que no generan contenidos de por sí.
  • Cada persona debe escribir en el medio, forma y tema que mejor se vea preparado, donde se sienta cómodo y donde le guste difundir. Error típico de la gran compañía en asignar a dedo a personas, tipo de red y contenidos en los que debe escribir.
  • El contenido debe ser interesante, entretenido, curioso, evitando el autobombo. Error típico de la gran compañía al hablar sólo de los productos propios.
  • Preocupación excesiva por la medida de parámetros, cuando hay aún hay pocos contenidos. La medida es buena para ver la segmentación del público, pero primero los contenidos, la constancia y los seguidores y luego ya, cuando se tengan muchos, vendrá la medida y el análisis, no al revés.

Este es un primer esbozo general de las debilidades genéricas. Un estudio en profundidad de cada debilidad dará lugar a ejemplos concretos y soluciones específicas.

miércoles, 18 de enero de 2012

Qualcomm Life abre las puertas al diagnóstico médico remoto


Qualcomm Life
Qualcomm acaba de anunciar la puesta en marcha de una nueva división de investigación y desarrollo denominada Qualcomm Life. La subsidiaria nace del departamento anteriormente conocido como Qualcomm Wireless Health, y su objetivo no es otro que las aplicaciones de comunicación médica M2M.
Poco a poco vamos viendo nuevos dispositivos para reunir información biométrica que sirva a los médicos para diagnosticar enfermedades más facilmente o hacer seguimientos de pacientes. Lamentablemente, las plataformas de telecomunicaciones para estas aplicaciones deben cumplir requisitos muy severos de estabilidad, rapidez y seguridad en la transmisión de estos datos de caracter privado.
Qualcomm ha visto hueco de mercado en este segmento y ha creado Qualcomm Life. El primer producto de la nueva división es una plataforma llamada 2Net. En esencia, se trata de un sistema de comunicaciones en nube que permite comunicar de manera segura miles de dispositivos de diagnóistico y recogida de datos biométricos con servidores en nube y, de ahí a terminales de información para personal médico.
Las comunicaciones M2M (Machine to machine) entre estos dispositivos se realizan mediante conexiones de radio y 3G encriptadas para cumplir los estándares médicos de Estados Unidos, donde hasta 40 organizaciones médicas están ya interesadas en participar en el proyecto.
2Net opera de manera totalmente independiente y es interoperable con cualquier plataforma o sistema operativo doméstico. La plataforma permitirá mejorar la atención a, por ejemplo, pacientes crónicos que requieren monitorización constante.
Via | xataka

martes, 17 de enero de 2012

Mi menú del día en Internet

Aquí os muestro mi menú de herramientas de Internet por orden de importancia.

Primeros
Segundos
Postres
¿Difiere mucho del tuyo?

miércoles, 11 de enero de 2012

El GPS, un paso más cerca de ser mucho mejor


El GPS o posicionamiento por satélite se ha convertido ya es una funcionalidad de la que viven muchos servicios, aplicaciones y gestos que hacemos en el día a día. Su uso ya no se limita a que un programa nos ayude a llegar de un sitio a otro sino que la geolocalización personal para redes sociales, fotografía o lo más interesante, información local, es algo que tenemos ya asimilado.
nuevo GPS Block III
Que quede menos para una mejora en el sistema GPS es siempre una buena noticia. El llamado Block III del sistemaGPS ya ha pasado a la fase de prueba. El primer satélite ya está en las instalaciones Lockheed Martin de Colorado para unos meses de pruebas antes de fabricar el modelo que servirá de base para los nuevos equipos que se espera que estén orbitando alrededor de la Tierra para 2021. El primer satélite saldrá para el espacio en 2014, y lo harán sucesivamente hasta tener 32 equipos al servicio de esta nueva generación de GPS.
Sobre las mejoras que podemos esperar de este GPS, la integración con los sistemas de posicionamiento europeo y ruso es una de ellas, pero también se avanzará en la seguridad, eficacia y precisión del posicionamiento. En datos se traduce en que el sistema GPS Block III será capaz de determinar nuestra situación (en el uso no militar) con un metro de precisión en vez de los tres actuales, pero también se necesitarán menos satélites para empezar a trabajar y el contacto con ellos será más rápido.
Via | xataka

miércoles, 4 de enero de 2012

¿Por qué a mi terminal 3G no le gustan las muchedumbres?


muchedumbre
Estamos en una manifestación, en un partido, en un congreso, etc., echamos mano de nuestro smartphone y vemos que la conexión 3G empieza a flaquear y es prácticamente imposible usar Internet en el móvil. Miramos la cobertura y está a tope ¿qué está pasando?
Lo lógico sería pensar que si muchos de nosotros tenemos un móvil con conexión a 3G, incluso una gran parte con smartphone (iPhone, Android, Blackberry, etc.), el pastel del ancho de banda se reparte entre todos los usuarios (cientos o miles) y a nosotros no nos han dejado ni las migajas. Sin embargo, la explicación es un poco más complicada.
Si se analiza el uso que hacen los móviles de la red, se observa que la congestión de la red no se produce realmente por el uso de Internet que hace el usuario, si no por el tráfico de control que el móvil establece con la red. Este fenómeno es conocido como “signaling noise”, o ruido por señalización.
Este problema que también afecta al establecimiento de las llamadas y a los SMS no se debe a la capacidad de datos de la red. Entonces ¿a qué se debe esto? Sorprendentemente la razón hay que buscarla en la batería.

El problema es la batería

Como es sabido, el gran punto flaco de los móviles modernos es la batería. En unos dispositivos que han ido incorporando más y más funcionalidades: 3G, GPS, bluetooth, etc, la batería es lo que menos ha evolucionado conviertiéndose en un bien muy escaso. Y la conexión 3G es precisamente lo que más batería gasta.
Para ahorrar, el móvil se desconecta automáticamente cuando no usa la conexión. Sin embargo, cuando se vuelve a necesitar Internet, trata de establecer de nuevo una conexión con la operadora. Esto produce una gran cantidad de datos de control que puede llegar incluso a 30 paquetes de datos. Tal es la sobresaturación que ni siquiera con la instalación de nuevas torres se logra dar el servicio que requiere el usuario.
El iPhone está en el punto de mira, ya que parece que los usuarios del dispositivo de Apple usan más la red. Sin duda es el dispositivo que más ha contribuido a popularizar el uso del Internet móvil y son por lo tanto unos de los grandes “culpables” del problema con las redes. Además su propio diseño (también el de muchos de los móviles de otras compañías), lo agrava aún más ya que para preservar aún más la batería, está configurado para tirar la conexión y abrir una nueva si lo necesita.
3gpp

Solución: release 8 del 3GPP y el offloading

Para solucionar este problema, el grupo 3GPP definió el estándar release 8 en el que se crea un “estado” intermedio entre la conexión y la desconexión total. En este estado de “dormido” es más fácil volver al estado activo (con menos mensajes de control) y por tanto con menos congestión de la red. El iPhone ya implementa esto desde la versión 4.2 de su sistema operativo.
La otra solución, es simplemente, no usar las redes 3G. Ofreciendo al usuario la posibilidad de usar redes WIFI que permitan descargar la red 3G (lo que se conoce como offloading). Muerto el perro, se acabó la rabia.
Mientras tanto, ya sabes, si quieres usar tu 3G… mejor sólo que muy acompañado.
Via | xatakaon