Imagina tener acceso a cualquier libro del mundo con un solo clic. Imagina una colección que crece cada día con los fondos de las bibliotecas más importantes del mundo, disponible en cualquier biblioteca local que lo solicitara. Imagina ser capaz de hacer búsquedas en decenas de millones de libros al mismo tiempo, en poder leer libremente cualquiera de las páginas de esos libros, poder destacar fragmentos, hacer anotaciones o compartir esa información enviando un enlace. Algo así como lo que ha hecho Google con Internet, pero aplicado al mundo de los libros. Un hecho de esta envergadura redefiniría la realidad a nivel intelectual, educativo o de investigación. Y además, eso no significaría, por supuesto, que no hubiera que pagar el acceso a determinados libros, aquellos que están impresos o que están protegidos bajo la legislación de derechos de autor.
Google en algún momento soñó con hacer esta posibilidad real. De hecho, el gigante digital nació en 1996 con intenciones de convertirse en una especie de biblioteca universal. Los esfuerzos definitivos de Google para escanear todos los libros del mundo comenzaron en 2002, cuando Larry Page y Marissa Mayer se plantearon cuánto tiempo se tardaría en escanear un libro de trescientas páginas. Así nació «Project Ocean», con la intención de escanear todos los libros del mundo. Cronómetro en mano, desde la cubierta hasta la última página, tardaron unos 40 minutos, lo que ponía de manifiesto cuánto tiempo tardarían en escanear cien millones de libros. Page propuso entonces a la Universidad de Michigan digitalizar todos sus fondos, compuestos por siete millones de libros, lo que teóricamente habría de llevarles unos mil años. El trato, sin embargo, no era malo: Google garantizaba a la biblioteca una copia digital de todos sus libros y un motor de búsqueda que le permitiera bucear entre ellos.
En 2004, Google comenzó su escaneo de libros masivo y en poco más de una década, después conseguir acuerdos con bibliotecas tan importantes como las de Harvard, Stanford, Oxford, la Biblioteca Pública de Nueva York y docenas más, se habían conseguido escanear unos 25 millones de libros. Eso sí, les costó unos 400 millones de dólares, en una hazaña que no fue solo tecnológica sino logística. Cada día de la semana llegaban camiones cargados de libros a los distintos centros de digitalización de Google. Cada uno de esos libros fue escaneado por una persona que pasaba las páginas a mano una por una, con una velocidad de escaneo de 1.000 páginas por hora. El desarrollo del software necesario fue fundamental para que el proceso fuera más fluido, ajustando la curvatura de las páginas, corrigiendo su color y su contraste para que las imágenes fueran más fáciles de procesar o desarrollando algoritmos que permitieran detectar ilustraciones y diagramas, extraer números de página, convertir notas a pie de página en citas reales e, incluso, clasificar los libros por relevancia.
En un momento en el que Google estaba volcada en aplicaciones más sociales ‒Google Plus fue lanzado en 2011‒ los libros pasaron a un plano secundario y muchos de los desarrolladores que trabajaban en otros proyectos veían Google Book Search como una idea de la era anterior. El coste que implicaba el proyecto de escanear todos los libros del mundo era de unos 40 o 50 millones de dólares al año, lo que haría que al final la cifra ascendiera a unos 300 o 400 millones. ¿Por qué gastar esa enorme cantidad de dinero en este proyecto?
A pesar de todo, Google continuó escaneando libros. En agosto de 2010, la compañía publicó en una entrada de su blog que había 129.864.880 libros en el mundo y que tenían la intención de escanearlos todos. No resultó así, por supuesto. El proyecto que empezó con acuerdos y permisos por parte de las bibliotecas dio el salto a algo más dudoso. Google se dedicó a sacar millones de libros de las bibliotecas, a escanearlos y a devolverlos, sin tener el permiso de los propietarios de sus derechos.
Ante esto, los autores y editores presentaron una demanda alegando que se estaba infringiendo la legislación sobre derechos de autor. Permitir que Google copiara cada libro publicado en Estados Unidos sin tener la autorización de los propietarios del copyright parecía poner en entredicho la legislación de derechos de autor y sentaba un peligroso precedente. La explicación que dio Google es que no estaban creando una biblioteca digital que diera acceso a los libros en su totalidad sino una especie de buscador de citas textuales que solo mostrarían fragmentos de los libros. De la misma manera que alguien puede extraer un fragmento de texto de un libro para hablar de ello, Google facilitaría las citas y parte de su contexto, lo cual sería muy distinto a permitir la lectura del libro completo. Google se estaba jugando mucho con esta baza: las infracciones por vulnerar el derecho de autor de una obra pueden llegar hasta los 150.000 dólares por cada libro, lo que significaban miles de millones de dólares al haber escaneado millones de libros.
El problema para los demandantes apareció cuando se dieron cuenta de que Google podía ser una oportunidad para vender libros descatalogados a través de copias digitales. Lo que ocurre es que no está claro a quién pertenecen los derechos de autor de la mayor parte de esos libros. Si un autor firmó un libro con una editorial hace decenas de años, es probable que el contrato quedara revocado después de que el libro se agotara, a no ser que se indicara lo contrario, y es prácticamente imposible que se hiciera mención a los derechos digitales. Además, muchos de esos contratos ya se perdieron. Y el coste de averiguar quién posee los derechos de autor de un libro determinado puede llegar a ser mayor que el valor del propio libro. Esto explica por qué aproximadamente la mitad de los libros publicados entre 1923 y 1963 están en el dominio público.
Después de dos años y medio analizando el problema, autores, editores, bibliotecas y Google llegaron a un acuerdo, que quedó plasmado en un documento conocido como Google Books Search Amended Settlement Agreement, de 165 páginas y más de una docena de apéndices. El proyecto le costó a Google unos 125 millones de dólares: un pago único de 45 millones a los propietarios de los libros escaneados ‒unos 60 dólares por libro‒, 15,5 millones en honorarios legales a las editoriales, 30 millones a los autores y 34,5 millones para crear el Registro. Las condiciones permitían que los libros descatalogados fueran mostrados ‒hasta en un 20%‒ y vendidos de forma digital. El precio, generalmente entre 1,99 y 29,99 dólares, sería determinado por un algoritmo o por los dueños de los derechos. Además se venderían paquetes de suscripción institucional para universidades, bibliotecas y otras entidades, donde los usuarios podrían acceder a esos libros de forma gratuita.
Aunque parecía que todos ganaban con el acuerdo, no tardaron en surgir voces que advertían de que se le estaba dando demasiado poder a una corporación privada, poniendo en sus manos la mayor biblioteca del mundo. Microsoft, por ejemplo, se quejó de que al usar los textos de los libros de forma legal dentro de su motor de búsqueda Google tenía una ventaja injusta sobre el resto de la competencia, un argumento un tanto absurdo teniendo en cuenta que el grueso de las búsquedas de Google no ofrece libros como resultados. Con un 80% del mercado de libros digitales Amazon, por supuesto, tampoco vio la jugada de Google con buenos ojos. Este acuerdo equivalía da darle a l buscador el monopolio en el sector del libro: al mismo tiempo que creaba la biblioteca más grande que haya existido nunca, la compañía estaba creando la librería más grande del mundo. Google iba a poder vender como si fueran suyos libros que deberían formar parte del dominio público, porque incluso aunque un autor pudiera poner sus obras a cero, era imposible contactar con muchos de los autores. Así que, paradójicamente, la solución planteada por aquellos que defendían los derechos de autor es que esos libros se mantuvieran inaccesibles.
Al final intervino la división antimonopolio del Departamento de Justicia y aparecieron tantos problemas que el proyecto tuvo que ser paralizado. La última resolución permitía a Google mostrar fragmentos de los libros pero el proceso de digitalización de libros se dio por finalizado. La idea original de Google de construir una biblioteca universal se encontró de bruces con un muro de objeciones y quedó reducida a un fondo de 25 millones de libros de los que se pueden consultar fragmentos pero que nadie puede leer completos, salvo la docena de desarrolladores que trabajaron en el proyecto. Desde un punto de vista logístico no sería difícil desbloquearlos y permitir su visualización pero no parece que eso vaya a pasar a corto o medio plazo porque a nadie parece interesarle cambiar la legislación por un puñado de libros antiguos o descatalogados, que realmente son los que podrían haber salido más beneficiados con la biblioteca de Google.
Fuente: The Atlantic
No hay comentarios