domingo, 28 de abril de 2013

Facebook: la red de comunidades


La red social Facebook fue creada a comienzos del siglo XXI, en 2004, por un estudiante de la Universidad de Harvard, Mark Zuckerberg, en compañía de Eduardo Saverin. Al principio era sólo un sitio web donde los estudiantes de esa universidad podían crear un perfil propio a fin de fortificar sus relaciones sociales con otros miembros de la misma, pero pronto comenzó a extenderse por las demás universidades de los Estados Unidos, facilitando así que surgiera el término de red de comunidades.

Un año después de su creación, en 2005, ya contaba con 11 millones de usuarios y el apoyo de diversas empresas, como Greylock Partners y Meritech Capital Partners, y ya había “cruzado el charco” para incorporarse a las también nuevas vidas de miles de estudiantes europeos, a pesar de que únicamente existía la versión en inglés.


Fue en 2006 cuando comenzó el gran salto de Facebook. A partir de ese año ya no solo eran los estudiantes los que podían crear su perfil, sino todo aquel que tuviera una dirección de correo electrónico. Ello, unido al lanzamiento de la versión en castellano, alemán y francés en 2008 ha posibilitado que Facebook se convierta, ya en el año 2012, en un auténtico fenómeno de masas, alcanzando los 600 millones de usuarios en todo el mundo.

Un hecho importante en la historia de esta red social se produce a finales de 2007, cuando vende una parte de sus acciones (el 1’6%) a Microsoft por la cuantía de 240 millones de dólares, a cambio de incluir publicidad de empresas que buscan atraer clientes a través de la web.

Mark Zuckerberg, gracias a todo el éxito que ha tenido esta empresa, se ha convertido en una de las personas más poderosas económicamente del mundo. De hecho, es considerado como el billonario más joven de la Tierra, como se comenta en la recta final de la película “la red social”, que relata cómo se creó Facebook.

Identidades reales

Una de las características más propias de Facebook, y que lo diferencia de otras redes sociales como Tuenti o Twitter es que los nombres de los perfiles corresponden inequívocamente al nombre de la persona que es dueña de ese perfil, lo que nos permite tener una mayor conciencia de quienes son nuestros amigos y a quienes no debemos admitir como tales.

Política de privacidad

En la política de privacidad de Facebook se hace referencia en numerosas ocasiones a la publicidad: esta empresa utiliza las cookies de nuestro ordenador para saber qué páginas web visitamos y, en función de ello, vender la información a los anunciantes (lo que constituye una de las fuentes de financiación más poderosas y fiables para Facebook). De acuerdo con ello, esta política de privacidad añade que nuestra información puede ser utilizada para ofrecernos anuncios personalizados o anuncios sociales.

Además, guarda la información sobre lo que realizamos dentro de esta plataforma (comentarios en muro, agregación de colegas, mensajes privados…), puede guardar incluso el número de cuenta o tarjeta de crédito si hemos realizado una transacción bancaria, puede obtener cualquier tipo de información sobre nosotros a través de nuestros amigos y, por supuesto, no se hace responsable de las políticas de privacidad de las páginas web cuyos links deambulen por él.

Leyendo estas líneas uno se puede dar cuenta de la cantidad de problemas que pueden surgir simplemente con crear un perfil en una red social. Sin embargo, esto no parece ser una cuestión importante para los usuarios, pues el número de éstos crece a niveles estratosféricos día a día.


                                                                                                                   Diego García Maroto

domingo, 21 de abril de 2013

Simbiosis





¿Realmente podemos hablar sobre periodismo digital versus periodismo impreso? Quizás nuestra concepción sobre este tema esté equivocada. ¿Por qué han de ser materias contrapuestas?

Empecemos definiendo el término “periodismo”. Para ello, ¿qué mejor que utilizar el diccionario de la Real Academia Española? En su primera acepción, periodismo viene definido como la “captación y tratamiento oral, escrito, oral, visual o gráfico, de la información en cualquiera de sus formas y variedades”. Con este primer acercamiento a la materia, podemos concluir que el periodismo puede practicarse perfectamente desde lo digital como desde lo impreso. ¿Qué problemas hay, entonces? 

Ante todo, tengamos presente lo siguiente: importa bien poco si el periodismo es practicado desde una mesa en una redacción, desde un plató de televisión, desde un estudio de radio o desde el sofá de nuestra casa. Lo que importa es si el periodismo que se lleve a cabo sea bueno o malo, y esto puede hacerse desde donde nosotros queramos. Por lo tanto, a la hora de “enfrentarnos” a esa gran amenaza que supuestamente es el periodismo digital, recordemos que debemos seguir siendo los mismos en esencia, asumiendo nuestra profesión con la misma ética y siguiendo con los fundamentos de un buen periodismo. 

Los medios tradicionales entienden Internet como un modo de amplificar su mensaje y de explorar nuevas oportunidades de negocio. Partiendo de esta base, se hace evidente que actualmente la mayor parte de medios consideran la versión online como si fuera de una calidad menor, sin sacar provecho de las múltiples ventajas que ofrece. Por norma general, se suelen difundir los mismos materiales informativos en lo impreso y en lo digital, sin tener en cuenta una premisa básica: iguales contenido pero distintos lenguajes.

El País, por ejemplo, no puede contar una historia de la misma forma en su ejemplar en papel y en su página online. ¿Las razones? Al pararnos a pensarlas, resultan obvias. La edición en papel permite una lectura en mayor profundidad, más tranquila, en la cual la información se encuentra jerarquizada. Por el contrario, en la versión web se buscan titulares contundentes, directos, noticias resumidas que nos acerquen al tema en cuestión sin adentrarnos en sus intrínsecas complejidades debido a la falta de tiempo.

Con esto solo reforzamos la idea de que el periodismo digital no implica la desaparición del periodismo impreso; son dos aspectos que han de complementarse, que se pueden ayudar mutuamente. A esto hemos de sumar las preferencias de los lectores. 

En un estudio realizado por la Asociación para la Investigación de Medios de Comunicación entre mayo y junio del 2011, en el que se realizaron 400 entrevistas a personas de diferentes zonas, edades, clase social, profesión e instrucción, se llegó a la conclusión de que un 32% de los internautas accede en el mismo día a diarios en soporte papel e Internet, elevándose la cifra al 59% si hablamos de los últimos 30 días. Asimismo, los motivos preferentes para acceder únicamente al soporte en papel son por aspectos de contenido y análisis, en tanto que la preferencia por la versión electrónica está más basada en actualidad o incluso en búsqueda de información adicional para decisiones de compra.

Un punto importante en la curiosa simbiosis entre el periodismo digital y el periodismo impreso es la credibilidad, que se ha convertido en el auténtico caballo de Troya para los medios digitales. La preocupación por la fiabilidad y credibilidad de estos nuevos “vehículos” periodísticos es general en los ambientes periodísticos y profesionales. Uno de los grandes problemas que aún hoy persisten es la actitud de quienes proveen la información: las fuentes. Gumersindo Lafuente, que fue director de la edición digital de El Mundo, aseguró lo siguiente: “Todavía las fuentes subestiman un poco a las versiones digitales de los diarios para privilegiar el papel. Es decir, las fuentes creen que hablar para el online es algo menor, pero esa percepción, al menos en España, está cambiando a toda velocidad”.

¿Cuáles son las conclusiones a las que podemos llegar tras este muy breve repaso por los “problemas” existentes entre ambas disciplinas? Que lo que importa es el periodismo; hacer buen periodismo, para ser más exactos. Proporcionarle al lector la información necesaria para saciar su curiosidad o para poder llegar a una opinión o conclusión. Hacer lo posible por narrar las historias que nos rodean con la mayor objetividad posible, sin olvidar nunca el aspecto humano de todas y cada una de ellas. Poco importa el método a través del cual se haga. La llegada de la radio y de la televisión conmocionaron al mundo, pero el periodismo siguió adelante. Internet es una gran puerta abierta que nos permitirá ejercer nuestro trabajo con mayor exactitud, fiabilidad, facilidad y cercanía que nunca. Esta es la clave.


“Sean cuales sean nuestras predicciones sobre el futuro, el de los buenos periodistas será más brillante que el de muchas personas que auguran nuestra desaparición. La información se podrá transmitir sobre papel, a través de ondas, mediante cables de fibra óptica, vía satélite o por telepatía, pero en todo caso alguien tendrá que filtrarla, investigarla, comprobarla, cuestionarla, escribirla y presentar unos resultados tan dignos de confianza como sea posible. ¿Quién se encargará de estas tareas? El periodista universal…”
David Randall, periodista británico.


Andrea Chantada Oubiña

viernes, 19 de abril de 2013

"No es un único cuentacuentos, sino muchos juntos"



La noche cae en Madrid. Las calles de Lavapiés muestran la variedad poblacional de la zona, como si de un mosaico se tratara. Nos encontramos delante de un pequeño café-librería, cerca del museo Reina Sofía. Lleno hasta los topes, desistimos de entrar en el encantador establecimiento y acabamos en la cafetería de al lado. Poco importaba, al fin y al cabo. Una mesa, un par de sillas y algo para beber. No se necesitaba más.

El frío por aquel entonces se introducía en los huesos, haciéndonos tiritar. Cubiertos casi como esquimales, nos sentamos en el bar, empezando a quitarnos capas y capas de prendas. Tras una breve charla para conocer las novedades en las vidas de cada uno, damos comienzo a la entrevista.

Daniel Ferrer (Dani, sin más), nacido en octubre de 1992 en Lanzarote (Canarias), estudia en la Escuela Universitaria de Diseño e Innovación de la Universidad Camilo José Cela. Su gran pasión han sido siempre los videojuegos, y a ello desea dedicarse, para lo cual comenzó el grado en Diseño y desarrollo de videojuegos hará unos tres años.

Con una sonrisa, espera pacientemente la primera pregunta. Una primera pregunta, es preciso decirlo, algo absurda, pero sin duda imprescindible: “¿Qué es un videojuego?”.

Su respuesta es impredecible. Según el Diccionario de la Real Academia Española, un videojuego es “un dispositivo electrónico que permite, mediante mandos apropiados, simular juegos en las pantallas de un televisor o de un ordenador”. Curiosamente, Dani tiene otra concepción sobre el tema: “Últimamente, cada vez más, es entretenimiento interactivo. Cualquier obra de arte en la que puedas mover la mano y cambie el color, es un videojuego”. Y añade, entre risas: “Hoy en día, claro; antes no”. Prosigue explicando que existen ciertos museos en los que mueves el brazo mientras te graba una cámara y el color cambia, pero reconoce que, no obstante, se trata de un debate actualmente en los que unos se posicionan a favor de considerar estas “prácticas” como videojuegos y otros en contra.

Una vez superada la definición del concepto, entramos de lleno en el mundo de la creación del propio videojuego. Dani nos explica que el número de personas que suelen participar en el desarrollo varía muchísimo, afirmando que “yo puedo hacer un videojuego solo y tardar dos años o puedo coger a diez personas y tardar una semana”. Asimismo, expone que, al comenzar el proceso, puedes basarte en cualquier cosa para desarrollar el videojuego, poniendo como ejemplo un juego cuyo objetivo es ver cómo una flor se mueve con el viento; sonriendo, añade “y consiguieron miles de descargas, la verdad; se forraron”. Nos confiesa, además, que por norma general y en lo referente a la idea base, los videojuegos suelen usar normalmente las fantasías de poder: “Es como si te crearas una segunda vida en la que eres lo que quieras”, lo cual, dice Dani, es una de las razones por las cuales tienen tanto éxito los juegos de Internet. 

La siguiente pregunta de la que es objeto da inicio a una contestación algo extensa. Al fin y al cabo, ¿cómo y por dónde se empieza a desarrollar un videojuego? Dani empieza a explicarlo mediante una experiencia personal: “En uno de los videojuegos en los que estoy trabajando ahora mismo, para iniciarlo me dije ‘me aburro, voy a hacer un videojuego’; pensé en una mecánica, me puse a programarla y luego fui añadiendo la historia, los personajes… Normalmente suele surgir con una idea: o es una idea sobre una historia o es una idea sobre cómo jugar”. ¿Qué se le puede añadir a esto? Por muy burdo o sencillo que parezco (y según las diversas páginas web de videojuegos visitadas), básicamente así se empieza a desarrollar el juego. Por ejemplo, la revista americana de videojuegos The Escapist, fundada en 2005, se pueden resumir los pasos para crear un videojuego en nada menos que ocho. Así de “sencillo”. Aquí os dejo el link a un blog en español que lo recoge:


Por otra parte, Dani nos explica que, si finalmente decides optar por crear un juego en grupo, los miembros de éste suelen dividirse en el diseñador, el artista y el programador. El primero tiene la función de ser, por así decirlo, el “guía”, el jefe, del proyecto. Inclinándose, Dani nos revela, como si de una conspiración se tratase, que “de hecho, en mi Universidad, los diseñadores suelen ser los que están más apartados, a los que más tirria se les tiene por ser los jefes”. Los artistas, la “categoría” a la que pertenece Dani, suelen encargarse de los bocetos, y los programadores son los que dictan las órdenes al ordenador. Por supuesto, se trata de un esquema muy básico, pero a grandes rasgos, estas son las divisiones en el seno del grupo. A esto hay que añadir que cada “sección” tiene un jefe (las mates del colegio nos permitirán llegar a la conclusión, como no, de que entonces hay tres jefes), a lo que luego debemos sumar una especie de “jefe de los jefes”, el que, utilizando un lenguaje algo más correcto, es el director del juego.

Nos zambullimos en cuestiones técnicas, como puede ser la importancia que juegan los colores en un videojuego. Al fin y al cabo, nos encontramos con personas que apuestan por juegos con una paleta oscura, en tanto otras poseen predilección por aquellos en los que primen los colores claros y brillantes. Dani nos explica que en una de las asignaturas que imparten en su grado estudian la Teoría del Color y lo que éste transmite a las personas: “por ejemplo, si es muy rojo la persona se pone nerviosa, si es muy verde la gente se tranquiliza”. Para añadir algo de “chicha” al tema, en el siguiente link encontramos la Teoría del Color resumida; nos viene a decir que nuestra percepción de la forma, la profundidad o el claroscuro “está estrechamente ligada a la percepción de los colores”, definiendo el concepto de “color” y explicando sus propiedades:


Abordamos entonces el papel que juega el idioma en un videojuego. Es probable que, en algún momento de nuestra vida, muchos de nosotros nos hallamos encontrado con un juego en el que los personajes hablan en inglés, pero se añaden subtítulos en español. Ante esto, Dani nos cuenta que, obviamente, si un juego está en inglés (y aquí debemos tener en cuenta la extensión de éste idioma por el mundo) no es necesario traducirlo, con lo cual es dinero contante y sonante que se ahorra. Los subtítulos, pues, que se incluyen por norma general para la gente sorda, presentan un grave problema: son muy caros. “A cuantos más idiomas esté traducido, más caro es el juego”. Y aquí llegamos a una nueva figura en el mundo de los videojuegos: el editor. 

Novac. Penge. Denar. Monon. Dirua. Raha. Geld. Uang. Pecuniam. Bani. Para. Fedha. Argent. Money. Dinero. Parece que, tristemente, todo se reduce al dinero. Al menos, en la actualidad. Y, faltaría más, la industria del videojuego no iba a ser menos. Nos adentramos, pues, en el tenebroso mundo de la financiación de un producto. Ahora, citamos textualmente las palabras de Dani sobre el tema:

“La financiación de los juegos viene a ser el sueldo de la gente que trabaja en el juego. Si pueden permitirse estar dos años sin sueldo, no hace falta financiación. El marketing ya es otra cosa; ahí ya hay que pagar. También, claro está, puedes hacer un juego y darle a conocer en las redes sociales, pero es algo que depende mucho del azar. Si tienes suerte y lo cuelgas en Twitter y un famoso lo vuelve a retuitear y le llega a mil personas, ahí ya puede ser. Si no, nada. Por eso mucha gente va a editores; intentan vender el juego a un editor y éste se encarga de todo el marketing a cambio del 70%, normalmente, de las ganancias. Son ellos, los editores, los que se arriesgan a gastar tanto dinero en un juego. Los pasos a seguir suelen ser estos: haces el juego, haces la demo del juego, se la intentas vender a un editor, el editor dice ‘vale, me interesa, te pago 25.000 euros ahora, otros 25.000 cuando me traigas x cosa hecha y cuando el videojuego está acabado los primeros 100.000 euros son para nosotros; luego, de cada juego vendido, un euro es vuestro; el resto es para nosotros’. Lo que te dije antes, cerca del 70% es para ellos. Si el juego vale 60 euros, a lo mejor el desarrollador se lleva un euro de cada videojuego vendido. Un euro, por cierto, para la empresa, si bien el desarrollador ya tiene las cifras anteriores. Por eso, aunque el desarrollador gane bastante dinero, el editor triplicará sus ganancias, razón por la cual ahora están surgiendo los crowfunding, como KickStarter, en donde los desarrolladores ganan miles de millones de dólares. Hay juegos que se los envías a un editor y te dice ‘no, porque esto no se va a vender, a la gente ya no le interesa esto, ahora quieren explosiones y sangre’, y van a KickStarter y la propia gente les da, por ejemplo, cuatro millones de euros porque quieren ese producto. Pueden pedir novecientos mil y recibir, perfectamente, mil millones”.

Ante esto, conceptos clave. El crowfunding es, básicamente, financiación colectiva. La palabra se inspira en el término crowd sourcing acuñado por Jeff Howe en la revista “Wired”. Es pocas palabras, se basa en compartir la financiación de un proyecto entre todas las personas que deseen apoyarlo. Se deja, pues, en manos de un colectivo las labores que habitualmente realiza una persona o una identidad. El crowfunding es un llamamiento abierto para ayudar a recaudar fondos para poner en marcha un proyecto, artículo, película, iniciativa, etc. (Ruiz Gutiérrez, José: Crowfunding y Creative Commons. Nuevos modelos de financiación y propiedad intelectual para la producción y distribución de proyectos audiovisuales). KickStarter, por su parte, es una de las mayores plataformas de crowfunding existentes. Este es el link a su página web:


Dani añade que el importe necesario para desarrollar un videojuego depende del propio juego: “Si es un juego para móviles ‘cutre’, poca cosa, pero si es un juego para la Play, obviamente necesitas bastante más”. Tras lo expuesto, ¿realmente merece la pena, en el aspecto económico, comenzar a desarrollar un videojuego? La respuesta de Dani es simple: depende. “Si tienes un editor, tienes un sueldo asegurado”. Nos habla de la existencia de un documental no hace mucho que trata, precisamente, éste tema en el que graban a desarrolladores de videojuegos indie famosos que viven en condiciones deplorables. A todo esto, por supuesto, hay que sumar la fuerte competitividad existente en el mercado, así como el hecho de que la industria del videojuego es un oligopolio. “Solo unas pocas empresas tienen casi el total del mercado en sus manos”.

Abandonamos las tinieblas anteriores para adentrarnos en cuestiones tales como el futuro de los videojuegos o la innovación (o renovación) de la industria. A lo primero, Dani sonríe y afirma, con rotundidad, que el presente está en los dispositivos móviles, pero que obviamente todo depende de cada persona, de sus gustos. “A mí personalmente no me gustan los juegos para móviles, pero hay mucha gente que dice que en ellos está la clave. Están saliendo consolas de Android, o sea, como si fueran un móvil, que son un poquito más potentes que un móvil y te cuestan 100 euros en vez de los 400 que te tendrías que gastar en la Play”. Concluye diciéndonos que, como en cualquier otro ámbito, no se sabe muy bien qué va a pasar con este tema.

En lo referente a la innovación, Dani hace un símil con las películas de los últimos años, las cuales están renovando todos los clásicos; nos hemos encontrado con una Caperucita Roja no tan inocente como parecía, una Blancanieves más valiente de lo que creíamos o unos Hansel y Gretel que han aprendido de su pasado para convertirse en cazadores de brujas. “Pues con los videojuegos se hace lo mismo”. En su opinión, no hay innovación propiamente dicha, pues se “limitan” a coger cosas que les gusta de otros juegos y mezclarlas para ver qué sale. Son pocos los que, al parecer, brillan entre tanto homogeneidad. “Pero lo que está claro es que los clásicos nunca mueren. Yo el año pasado tenía el tetris en mi móvil, y jugaba más con él que con el resto de juegos”, dice entre risas.

Ya en la recta final de nuestro encuentro, le planteamos a Dani una pregunta más por curiosidad que por cualquier otra cosa, pues como diseñador (o estudiante de la carrera) de videojuegos, ¿qué opinión tendría acerca de los videojuegos de guerra? Sin pensárselo dos veces, afirma que son como películas; demasiado exagerados como para ser considerados realistas. Al preguntarle si considera que los videojuegos de guerra pueden llegar a trastornar a ciertas personas, recordando casos famosos en los que un adolescente, por ejemplo, asesina a su familia imitando a un personaje, Dani contesta lo siguiente: “Vi un documental hace unos años en el que cogieron a un niño al que le encantaban ese tipo de juegos, le dieron una pistola y el crío acabó llorando porque no se esperaba que fuese así; le asustó muchísimo el retroceso del arma. Vamos, yo personalmente no creo que pudiese usar una pistola, y sin embargo estoy siempre dándole al botón de ‘disparar’. Pero no creo que tengan el poder suficiente como para trastornar a una persona; esa gente ya debe estar mal”.

Terminamos como empezamos, con dos preguntas que hacen referencia a la creación de un juego. ¿Son creadores de historias aquellos que crean un videojuego? ¿Una especie de cuentacuentos modernos? De nuevo riéndose, responde que depende. En ciertos juegos, el director se encarga de que todo sea como él quiere, “algo parecido a Spielberg”; no obstante, hay muchos otros en los que se lleva a cabo una tormenta de ideas y se acaba optando por lo que le guste a todo el mundo. “No es un único cuentacuentos, sino muchos juntos”. 

Para la cuestión final, recurriremos a la estructura típica de una entrevista: pregunta-respuesta. ¿Por qué? Porque es una opinión personal de Dani, y porque rompe con la monotonía del resto de la entrada.

¿Qué se necesita para ser diseñador de videojuegos?
Ni siquiera hace falta la carrera, la verdad. Pero sobre todo paciencia. Y dinero, claro. Pero bueno, en lo que respecta al dinero, puedes bajarte todos los programas necesarios piratas y mientras tengas tu trabajo de camarero puedes ir haciendo juegos y vendiéndolos. Es muy fácil sacar juegos ahora, solo tienes que pagar una cuenta e ir subiéndolos. De ahí, por ejemplo, que te encuentres con tanta basura en el móvil, porque cualquiera puede sacar una chorrada.


Gracias, Dani. Un párrafo, y haces volar por los aires unas cuantas instituciones. Ese es el espíritu. Te lo confieso: pensamos igual.




Andrea Chantada Oubiña

lunes, 15 de abril de 2013

Page Rank y SEO: competitividad en la Red







La información que recibimos hoy día es tal que hace necesaria la creación de un sistema que nos permita encontrar lo que realmente buscamos. Si esto se relaciona con la competitividad de la economía capitalista y la rivalidad entre los distintos distribuidores de información (blogs, páginas web, archivos…) para conseguir ser los que primero lleguen al usuario o consumidor, se ve una cierta lógica en la creación de un sistema que localice de forma directa las direcciones o archivos que más han sido utilizados a partir de una misma secuencia de palabras o códigos.
Google posee el monopolio de los buscadores , y para conseguirlo tiene unas fuertes bases que permiten lidere el mercado en Internet. Así ocurre con Page Rank, una herramienta que nos reduce en gran cantidad la información que podemos desechar. Esto es, a partir de un proceso matemático asigna una relevancia concreta a los documentos o páginas web que han sido indexados en la red, de forma que los más descargados o consultados son aquellos considerados como material de mayor importancia porque se relaciona de forma directa con los códigos de búsqueda que los usuarios han hecho sobre un mismo contenido.
Page Rank es la herramienta más fuerte que posee Google, así como tiene también Google Talk, Google Chrome, Google Earth…
Este motor de búsqueda fue el primer producto que comenzó a “vender” Google. Creado por Larry Page y Sergey Brin (fundadores de Google), se ha convertido en el producto estrella de Google.
Un sistema que actualiza la relevancia 3-4 veces aproximadas por año tiene que tener en cuenta que siempre salen competidores y debe mantenerse en el posicionamiento de empresas de buscadores, es por ello que también tiene actualizaciones. Así tenemos por ejemplo Panda en Mountain View en 2011.
El posicionamiento o relevancia de los distintos productos que se ofrecen en internet en los motores de búsqueda (SEO) es de vital importancia para todo aquel que se publicite en la red. De esta forma está 
proliferando la figura del SEO para mejorar la importancia o relevancia de las páginas de las empresas que se anuncian en internet. Esto sigue una ley de la publicidad muy clara: “El que primero llega al consumidor, más probabilidades tiene de quedárselo” (es coherente si tenemos en cuenta que en los motores de búsqueda, si aparece en los primeros puestos es porque los usuarios realmente buscaban su producto).

Funcionamiento

Page Rank se fundamenta en la estructura de la WWW( World Wide Web) para otorgar la valoración o importancia de las páginas que lo forman.  Hay muchas formas de puntuar cada página, uno de ellos es el de los enlaces. Cada enlace es como un voto, de forma que una página que tenga un enlace a otra página, estará dando un punto a la página con la que se vincula. Según el número de votos que posea, tendrá un mayor posicionamiento.
Sin embargo, también tiene en cuenta la página de la que viene  el voto. No es lo mismo que te apoye en tu argumento un loco que un cuerdo… Si la página tiene una mayor importancia, más visitas, etc. y posee una información similar (es importante también que traten más o menos lo mismo las páginas enlazadas) es evidente que el voto valdrá más.
                                
           

En conclusión, una herramienta que es aparentemente para mejorar la eficacia y eficiencia de los usuarios se convierte en una disputa entre los distintos productores  a los que no les queda otra que relacionarse para crear precisamente una RED que les/nos conecte a todos.


Tomás Moraga Rodríguez

domingo, 7 de abril de 2013

Políticas de ¿privacidad? de Google


 Una de las cuestiones que más preocupan a la población de gran parte del mundo (y no, no vamos a hablar ni de la crisis ni de armamento nuclear) es la protección de la intimidad y la privacidad en Internet.

Más concretamente, vamos a analizar la política de privacidad que utiliza Google para garantizar la protección de los datos que le son ofrecidos por sus usuarios, y que últimamente se está sometiendo a debate y crítica popular. 

Google, a lo largo de su vida, ha publicado varias políticas de privacidad. La primera data del mes de agosto del año 2000, en la que la empresa aclara que los datos que le son ofrecidos por las personas que utilizan su servicio no serán, bajo ningún concepto, “revelados a un tercero”. Sin embargo, en el mismo texto se dice que Google podría compartir información acerca de una persona con agencias de publicidad, socios, sponsors u otros terceros.

 5 años y dos meses después, en octubre de 2005, se emite una nueva política de privacidad en la que se comienza haciendo referencia a la importancia de la privacidad personal, y que continua con la aclaración de que “Google cumple con los principios del puerto seguro sobre la protección de la vida privada de los Estados Unidos de Notificación, Elección, Transferencia Ulterior, Seguridad, Integridad de la Información, Acceso y Aplicación, y está registrado en el Programa Puerto Seguro del Departamento de Comercio de Estados Unidos. La información que facilita el usuario (que puede ser relativa a tarjetas de crédito y cuentas bancarias) también es requerida y, según se aclara, se mantendrá de forma encriptada. Sin embargo, Google hace nuevamente referencia a que podría combinar esa información con otros servicios que gestiona para ofrecernos una mejor experiencia y mejorar la calidad de sus servicios.

La siguiente data de agosto de 2008 (desde entonces hay una nueva política cada año) en la que se modifican pequeñas cosas y la redacción. En el año 2009, surgen dos políticas, una en enero y otra en marzo. En la de marzo, lo más novedoso es que por primera vez se habla de proteger los derechos de Google y de sus usuarios. En 2010, vuelve a nacer una política, cuya novedad es la eliminación del apartado “integridad de los datos”, en el que se decía que se tomarían medidas para que los datos personales fueran exactos, completos y estuvieran actualizados.

 Y así llegamos a 2012. En marzo, vuelve a salir un nuevo texto cuyo objetivo es garantizar la seguridad y la privacidad de los usuarios. Incluye un nuevo epígrafe, titulado “cómo utilizamos los datos recogidos”, en el que se explica que tal acción se realizará mediante las cookies y otras tecnologías como los contadores de visitas. Sin embargo, esas cookies no se asociarán a determinados datos protegidos, como la raza, religión… A su vez, como el tema de la privacidad comenzaba a preocupar a millones de personas, Google no tardó en definir como su objetivo primordial el informar a los usuarios acerca de los datos que recogían y cómo los usaban.

La versión actual, de julio de 2012, no supone ningún cambio digno de mención con respecto a la anterior.

Sin embargo, durante los últimos meses Europa y la empresa estadounidense han tenido una serie de discrepancias y de polémicas que no deja a nadie indiferente. Y es que los 27 países de la Unión Europea quieren imponer una sanción económica a Google porque, según ellos, no ha ajustado su política de privacidad a la legislación comunitaria, porque no ofrece garantías sobre una total protección de los datos y porque no ofrece una información clara y transparente a los usuarios.

Pero… ¿se tienen fundamentos suficientes para imponer esa sanción o estamos ante una fantasmada más de la Unión Europea?, ¿somos los usuarios de Google conscientes de lo que realmente se hace con la información que proporcionamos?, ¿es lícito, por ejemplo,  que Google utilice información de nuestros correos electrónicos y la traspase a los anunciantes?


 Diego García Maroto

martes, 2 de abril de 2013

La puerta a la libertad





“Las obras de conocimiento deben ser libres, no hay excusas para que no sea así.”


El nacimiento de “Linux”, como ya se ha mencionado en otra entrada, supuso una revolución en el mundo de la tecnología y de la información. Linus Torvalds inició a principios de los 90 un proyecto que ha ido aumentando con creces hasta hoy en día, un proyecto que permite una mayor libertad a los usuarios, un proyecto que se ha erigido en un gran competidor frente a las dos grandes empresas “tradicionales” y sus respectivos “líderes”: Bill Gates con Microsoft y Steve Jobs con Apple.

No obstante, es preciso hacer una parada en la historia de estos grandes cambios, en los que se incluyen, como no, el nacimiento de las empresas antes mencionadas, Microsoft y Apple. 

A mediados de los años 80, surgió una pequeña idea en la cabeza de cierto joven estadounidense con el objetivo de crear una alternativa libre al sistema operativo “Unix”, creando un sistema informático completo con código fuente libre. Pero antes de seguir hablando de esta curiosa y novedosa idea, remontémonos a los inicios del joven impulsor de la misma.
 
Richard Matthew Stallman (Manhattan, 16 de marzo de 1953) es hoy en día uno de los mayores gurús de la informática, y desde muy joven estuvo en contacto con este mundillo que para los meros mortales se asemeja a un planeta plagado de extraterrestres: la informática. En sus primeros años, escribió un programa de análisis numérico en Fortran, un lenguaje de programación de alto nivel, en poco más de dos semanas, además de redactar en la misma época un editor de textos en el lenguaje de programación APL (un lenguaje muy conciso orientado a trabajos con matrices con el que se pueden hacer todo tipo de operaciones lógicas o matemáticas) así como un preprocesador (un programa separado invocado por el compilador antes de que comience la traducción real –traducir un programa escrito en un lenguaje de programación a otro lenguaje de programación-) para el lenguaje de programación PL/1.

Tras sus primeros “pinitos” en el sector, Stallman ingresó en la Universidad de Harvard en 1971, licenciándose en “Física” en 1974. Desde que entró en la Universidad, empezó a trabajar como hacker para el Laboratorio de Inteligencia Artificial del famoso Instituto Tecnológico de Massachussets (MIT) hasta 1984.

La comunidad hacker en la que se movía Stallman en el propio Laboratorio fue poco a poco desmantelada, con lo cual se planteó crear una nueva comunidad en la que los usuarios pudieran compartir, modificar y, en definitiva, ayudar a los demás. Es probable que este fuera uno de los motivos por los cuales nació el “Software Libre”.

Asimismo, existe una anécdota acaecida en los años en los que Stallman estuvo en el Laboratorio de Inteligencia Artificial que al parecer también pudo constituirse como otro de los motivos que condujeron al nacimiento del “Software Libre”. El Laboratorio poseía una impresora con una desagradable tendencia a estropearse que solía tragarse el papel, y era incapaz de comunicar a las estaciones de trabajo que estaba teniendo un problema. Esto provocaba una gran pérdida de tiempo, con lo cual Stallman solicitó los controladores de software para poder añadir una función a la máquina que notificara si tenía un problema, pero la imposibilidad de modificar las funciones escritas en código binario sin el código fuente obligó al hacker a solicitarlo. La denegación de esta solicitud pudo haber sido, según se cuenta, el “origen de lo que se ha convertido en la primera gran rebelión informática de la Historia”.

Regresando a la historia de Stallman, en 1983 anunció el inicio del proyecto GNU, cuyo objetivo era crear un sistema operativo completamente libre: el sistema GNU. GNU es un acrónimo recursivo, esto es, un acrónimo que no parece explicar su significado completo en el que una de sus letras representa al propio acrónimo, que significa “GNU is not Unix” (“GNU no es Unix”), ya que el sistema guarda un cierto parecido con “Unix” con la diferencia de que el primero es completamente libre, en tanto el segundo. Con el nacimiento del proyecto, se da inicio al Free Software Movement, naciendo en 1985 la Free Software Foundation (Fundación para el Software Libre o FSF) impulsada por Stallman.

Para trabajar en el proyecto GNU, Stallman dimitió en 1984 del MIT, logrando con la creación de la FSF contratar programadores para contribuir a GNU y captar voluntarios que ayudaran en el proceso de desarrollo de GNU. Asimismo, en 1985 Stallman publicó el “Manifiesto GPU”, un nuevo fundamento jurídico en el que declaraba sus intenciones y motivaciones para crear una alternativa libre a “Unix”, e inventó el concepto de coyleft (permite que una obra sea distribuida, modificada, copiada, etc., y garantiza que se preserven estas libertades para cualquier receptor de una copia), creando asimismo en 1989 la Licencia Pública General de GNU (GNU General Public License –GNU GPL-). La GNU GPL garantiza a los usuarios finales la libertad de usar, estudiar, compartir, copiar y modificar el software.

Stallman desarrolló una serie de componentes de software del sistema GNU, y a principios de 1990, el proyecto GNU marchaba viento en popa, exceptuando el núcleo (Hard). En 1991 hizo su aparición Linus Torvalds, el cual comenzó a trabajar en el núcleo de “Linux” (Kernel), distribuyéndolo bajo la licencia GPL. Un año después, el núcleo de “Linux” fue combinado con GNU, naciendo un nuevo sistema operativo libre y completamente funcional que tomó por nombre GNU/Linux.

Desde entonces, Stallman ha promovido la utilización del software libre por todo el mundo, difundiendo la ideología GNU mediante charlas y conferencias, así como iniciando y participando en campañas contra las patentes de software y la ampliación de los derechos de autor. Un dato curioso es que en sus charlas suele presentarse con una “segunda personalidad” llamada San Ignucio con la que suele bendecir los ordenadores de los asistentes, a lo que hay que sumar su descuidada imagen y sus extrañas manías, como no usar teléfono móvil o negarse a dormir en hoteles, lo que ha convertido a este hombre en un personaje fascinante e imposible de olvidar para todo aquel que se haya interesado en “conocerle”.





 Aquí os dejo una conferencia dada por Stallman en la Facultad de Ingeniería de la UNAM (México) y un pequeño vídeo en el que explica la importancia del software libre en la educación:
 Conferencia en México
 El software libre en las escuelas



 Andrea Chantada Oubiña