Web não deve ser limitada ao poder de um dono

por Lawrence Lessig

A internet pertence a quem? Até recentemente, a ninguém. Isto porque, muito embora a internet fosse “made in the U.S.A.”, a sua estrutura única transformou-a em uma fonte de inovação que qualquer pessoa no mundo poderia utilizar. Atualmente, entretanto, tribunais e corporações vêm tentando cercar porções do ciberespaço. Assim procedendo, eles estarão destruindo o potencial da internet para fomentar a democracia e o crescimento econômico global.

A revolução da internet terminou tão surpreendentemente quanto começara. Ninguém esperava a explosão de criatividade que a rede produziu; e poucos esperavam que esta explosão fosse entrar em colapso tão rápida e profundamente como se sucedeu. O fenômeno assemelha-se a uma estrela cadente, riscando sem anunciação o céu da noite, para depois desaparecer inesperadamente. Sob o pretexto de proteger a propriedade privada, uma série de novas leis e regulamentos está desmantelando a mesma arquitetura responsável por tornar a internet um modelo para a inovação global.

Nem o surgimento, nem o fim dessa revolução são difíceis de compreender. A dificuldade está em aceitar as lições trazidas pela evolução da internet. A internet foi criada nos Estados Unidos, mas o seu sucesso transcendeu os modernos ideais americanos de propriedade e de mercado. Os americanos, conforme explica a Professora Carol Rose, da Yale Law School, são fascinados pela idéia de que o mundo é mais bem administrado “quando dividido entre proprietários privados” e quando o mercado regula perfeitamente os recursos divididos. A internet, porém, tomou impulso exatamente porque os recursos centrais não foram “divididos entre proprietários privados”. Pelo contrário, permitiu-se que os recursos centrais da internet fossem destinados ao “bem comum”. Foi esse compartilhamento que gerou a extraordinária inovação verificada na internet. A restrição a esse bem comum é que acabará acarretando o fim da internet.

Esse compartilhamento foi instituído na própria estrutura arquitetônica da rede original. Foi o seu propósito que garantiu o direito à inovação descentralizada. Foi essa “inovação compartilhada” que produziu toda a diversidade criativa manifestada pela rede nos Estados Unidos e, de forma ainda mais acentuada, no exterior. Muitas das inovações da internet que nós hoje consideramos banais (das quais a World Wide Web não é a menos importante) foram criadas por “pessoas de fora” — inventores estrangeiros que contribuíram espontaneamente para o bem comum da internet. O governo, em suas instâncias decisórias e legislativas, precisa compreender a importância desta arquitetura para a inovação e a criatividade previstas na rede original. O potencial da internet está apenas começando a ser percebido, especialmente nos países em desenvolvimento, onde muitas das alternativas do “mundo real” para o comércio e a inovação não são livres ou não estão disponíveis.

Entretanto, antigos pontos de vista estão se reafirmando nos Estados Unidos e querem modificar essa arquitetura. Mudanças no núcleo original da internet ameaçam o potencial da rede no mundo todo — limitando as oportunidades de inovação e criatividade. Assim, no momento em que esta transformação poderia ter efeitos significativos, uma contra-revolução está conseguindo minar o potencial dessa rede de comunicações.

A motivação para esta contra-revolução é tão antiga quanto as próprias revoluções. Conforme Niccolò Machiavelli descreveu muito antes da internet, “a inovação faz inimigos de todos aqueles que prosperaram no antigo regime, e apenas um apoio tímido virá daqueles que poderiam prosperar no novo”. E assim se dá conosco no presente. Aqueles que prosperaram sob o antigo regime sentem-se ameaçados pela internet. Aqueles que poderiam prosperar nas novas circunstâncias não estão se levantando para defendê-la contra os velhos paradigmas; se eles ainda o farão permanece sem resposta. Até agora, tudo indica que não.

A Zona Neutra

Um bem comum (1) é um recurso acessível a todos aqueles que pertencem a uma comunidade. Trata-se de um recurso que não é, num aspecto importante, “controlado”. A propriedade privada ou pública é um recurso controlado; ela pode ser utilizada apenas da maneira especificada pelo seu proprietário. Uma área comum, por sua vez, não se submete a esse tipo de controle. Restrições neutras ou igualitárias podem ser aplicáveis a ela (como um ingresso para um parque, por exemplo), mas não às restrições de um proprietário. Uma área comum, nesse sentido, deixa os seus recursos “livres”.

Bens comuns são atributos de todas as culturas. Eles foram especialmente importantes para culturas de fora dos Estados Unidos — desde posses comunais na Suíça e no Japão até comunidades de irrigação nas Filipinas. No entanto, dentro da cultura intelectual americana, os bens comuns são considerados recursos imperfeitos. Eles são resultantes de uma “tragédia”, como descreveu o ecologista Garrett Hardin. Sempre que há uma área comum, o objetivo passa a ser o de confiná-la. Na psiquê americana, bens comuns são vestígios desnecessários do passado que, na melhor das hipóteses, devem se possível ser removidos.

O preconceito contra o bem comum faz sentido para a maioria dos recursos, na maior parte do tempo. Quando os recursos são destinados à coletividade, os indivíduos tendem a consumi-los rapidamente e, por conseqüência, a esgotá-los. Para outras espécies de recursos, no entanto, o preconceito contra o bem comum pode ser ofuscante. Alguns recursos não estão sujeitos à “tragédia do bem comum”(2), porque não são esgotáveis. (Não importa quantas vezes utilizarmos as teorias da relatividade de Einstein ou copiarmos o poema “New Hampshire” de Robert Frost, estas fontes não irão se esgotar.) Para esses recursos, o desafio é induzir o fornecimento, e não evitar o esgotamento. Os problemas de fornecimento são muito diferentes dos problemas de exaurimento — confundir os dois nos levará apenas a políticas inadequadas.

Esta confusão é particularmente acentuada ao se levar em consideração a internet. No núcleo da internet há um design (escolhido sem que houvesse uma noção clara das conseqüências) que era novidade nas redes de comunicação e informática de larga escala. Denominado “argumento end-to-end”(3) pelos teóricos da rede Jerome Saltzer, David Clark e David Reed em 1984, este design exerce influência sobre os locais onde a “inteligência” é inserida na rede. Sistemas computadorizados de comunicação tradicionais situaram a inteligência e, por conseguinte, o controle dentro da própria rede. As redes eram “sábias”, elas foram projetadas por pessoas que acreditavam que sabiam exatamente para quais fins a rede seria utilizada.

Mas a internet surgiu no momento em que uma filosofia diferente estava tomando forma dentro da ciência da computação. Essa filosofia priorizava a humildade acima da onisciência e afirmava que os programadores da rede não tinham uma idéia clara sobre todos as possibilidades de utilização da rede. Ela aconselhava, portanto, um design que acrescesse pouco à rede em si, deixando-a livre para se desenvolver conforme as extremidades (os aplicativos) necessitassem.

A motivação para este novo design era a flexibilidade. A conseqüência era a inovação. Como os inovadores não precisavam de permissão anterior do dono da rede para que diferentes aplicativos ou conteúdos fossem disponibilizados, eles estavam livres para desenvolver novos modos de conexão. Tecnicamente, a rede alcançou este design simplesmente por enfocar a entrega de pacotes de dados, esquecendo-se tanto dos conteúdos dos pacotes quanto de seus donos. A rede também não se preocupou se todos os pacotes iriam encontrar o caminho para o outro lado. A rede é pelo “melhor esforço”, qualquer algo mais é propiciado pelos aplicativos em ambas as extremidades. Como um correio eficiente (imagine!), o sistema simplesmente transfere adiante os dados.

Como a rede não foi otimizada para um aplicativo ou serviço específico, a internet permaneceu aberta a inovações. A World Wide Web é talvez o melhor exemplo. A Web foi criada pelo cientista da computação Tim Berners-Lee no laboratório da Organização Européia para a Pesquisa Nuclear (4), em Genebra, no final de 1990. Berners-Lee queria possibilitar aos usuários de uma rede o acesso rápido a documentos localizados em qualquer outro lugar da rede. Ele desenvolveu, assim, um conjunto de protocolos que propiciava links de hipertexto entre um documento e outro na rede. Por serem “end-to-end”, esses protocolos podiam ser acomodados por sobre os protocolos iniciais da internet. Isto significava que a internet poderia crescer para abarcar a Web. Se a rede tivesse aberto mão de seu compromisso com o “end-to-end” — se o seu design tivesse sido aperfeiçoado, por exemplo, em favor da telefonia, como muitos desejavam na década de 80 — aí a Web não teria sido possível.

O design “end-to-end” é o “núcleo” da internet. Se considerarmos que a rede é construída em camadas, então podemos dizer que o design “end-to-end” foi criado por um conjunto de protocolos implementados na camada intermediária — aquela que chamaremos de camada lógica, ou de código (5), da internet. Abaixo da camada de código encontra-se uma camada física (os computadores e a fiação utilizados na conexão). Acima da camada de código está uma camada de conteúdo (o material que é disponibilizado na rede). Nem todas essas camadas foram organizadas como se fossem bens comuns. Na camada física, os computadores são propriedades privadas, não são “livres” no sentido de públicos. Uma boa parte do conteúdo disponibilizado na rede é protegida por direitos autorais. O conteúdo, também, não é “livre”(6).

Na camada de código, entretanto, a internet é um bem comum. Em razão do seu design, ninguém controla os recursos à inovação que são disponibilizados nessa camada. Indivíduos controlam a camada física, decidindo se a máquina ou rede irá se conectar a internet. Mas, uma vez conectada, os recursos de inovação para a rede permanecem livres, pelo menos sob o design original da internet.

Nenhuma outra rede de grande escala havia deixado a camada do código livre desta maneira. Na maior parte das histórias sobre os monopólios das telecomunicações no mundo, a permissão para inovar na plataforma telefônica era controlada energicamente. Nos Estados Unidos, em 1956, a AT&T conseguiu persuadir a Comissão Federal de Comunicações dos Estados Unidos (7) a impedir a utilização de um recipiente plástico nos receptores dos telefones, que era destinado ao bloqueio dos ruídos do microfone do telefone, sob o argumento de que a apenas a AT&T possuía o direito exclusivo sobre as inovações na rede telefônica.

A internet poderia ter permanecido uma ferramenta obscura dos pesquisadores apoiados pelo governo, se a companhia telefônica tivesse mantido esse controle. A internet jamais teria se propagado, se os indivíduos comuns não tivessem a possibilidade de se conectar a rede por intermédio dos Provedores de Serviço internet — PSI (8), e por meio das linhas telefônicas já existentes.

No entanto, este direito de se conectar não foi predeterminado. Um acidente na história da regulamentação teve aqui um papel importante. Exatamente no momento em que a internet estava surgindo, o monopólio das telecomunicações movia-se para um paradigma diferente de regulamentação. Antes, o monopólio das telecomunicações tinha, praticamente, total liberdade para controlar seus cabos ao seu bel-prazer. No início da década de 60 e depois mais acentuadamente no decurso dos anos 80, o governo começou a exigir que a indústria de telecomunicações se comportasse de forma neutra — primeiramente insistindo que as companhias telefônicas possibilitassem aos seus clientes a conexão dos equipamentos (como os modems) à rede; depois, exigindo que as companhias telefônicas permitissem o acesso de terceiros ao seu cabeamento.

Este tipo de regulamentação era raro entre os monopólios das telecomunicações em todo o mundo. Na Europa e por todo o globo, era permitido que os monopólios de telecomunicações controlassem o uso de suas redes. Não havia requisitos de acesso que permitissem a concorrência. Assim, nenhum sistema de competição se desenvolveu em torno desses monopólios.

Mas, quando os Estados Unidos desmantelaram a AT&T em 1984, as companhias resultantes não tinham mais a liberdade de impedir outros métodos de utilização de suas redes. E quando os provedores de serviço à internet buscaram acessar as linhas nativas da Bell (9) para capacitar seus clientes a se conectarem à internet, exigiu-se nessas linhas a concessão de igual acesso. Isto possibilitou uma forte concorrência no acesso à internet, e desta concorrência resultou que a rede não poderia mais se posicionar estrategicamente contra a nova tecnologia. De fato, por meio de um mercado competitivo, o design “end-to-end” pôde ser criado na camada física da rede telefônica, o que significou que um design “end-to-end” poderia ser construído sobre toda ela.

Este direito comum de inovação foi então construído sobre a camada de infra-estrutura física que, por meio da regulamentação, adquiriu importantes características típicas dos bens comuns. A regulamentação do método de transporte público do sistema de telefonia assegurou que o sistema não tivesse êxito em criar obstáculos a uma competidora emergente, a internet. E a própria internet foi criada, por meio de seu design “end-to-end”, para garantir que nenhum aplicativo particular ou utilização pudesse obstaculizar quaisquer outras inovações. Existia neutralidade na camada física e na camada de código da internet.

Uma importante neutralidade também existia na camada de conteúdo da internet. Essa camada inclui todo o conteúdo em trânsito na rede — páginas da Web, MP3s, e-mail, vídeo streaming — bem como os programas de aplicativos que são executados na rede ou que a alimentam. Estes programas são diferentes dos protocolos da camada de código, coletivamente referidos como TCP/IP (incluindo os protocolos da World Wide Web). O TCP/IP foi destinado ao domínio público.

Mas o código acima desses protocolos não é de domínio público. Ele é, ao invés disso, de dois tipos: proprietário e não-proprietário. O proprietário inclui os conhecidos sistemas operacionais da Microsoft, servidores Web e programas de outras companhias de software. O não-proprietário inclui o software livre e o open source (10), especialmente o sistema operacional Linux (ou GNU/Linux), o servidor Apache, bem como um host (11) de outro código de interconexão (12) que permita o funcionamento da rede.

O código não-proprietário cria uma área de utilização pública na camada de conteúdo. O bem comum aqui não é apenas o recurso que um programa em particular poderia oferecer — por exemplo, a funcionalidade de um sistema operacional ou de um servidor (i)Web. O bem comum também inclui o código-fonte do software que pode ser extraído e modificado por outras pessoas.

A fonte aberta e o software livre (“código aberto”, para abreviar) devem ser distribuídos com o código-fonte. O código-fonte deve ser liberado a todos com a finalidade de ser adotado e modificado. Este bem comum na camada de conteúdo significa que outros podem ter acesso, bem como implementar a fonte aberta e o software livre. Significa também que o código aberto não pode ser aprisionado e direcionado contra nenhum concorrente em particular. O código aberto sempre poderá ser modificado por usuários subseqüentes. Ele está, assim, licenciado para que permaneça neutro nas utilizações ulteriores. Não há um “proprietário” do projeto de código aberto.

Desta forma, e mais uma vez, comparável ao princípio “end-to-end” na camada de código, o código aberto descentraliza a inovação. Ele mantém a plataforma neutra. Esta neutralidade, por sua vez, inspira os inovadores a construir em favor da plataforma, pois eles não precisam temer que a plataforma possa se voltar contra eles. O código aberto constrói um bem comum que propicia a inovação na camada de conteúdo. Assim como se dá com a área comum na camada de código, o código aberto preserva a oportunidade para a inovação e protege a inovação contra a conduta estratégica de concorrentes. Recursos livres induzem às inovações.

Um mecanismo de inovações

A internet original, assim entendida quando foi disponibilizada à sociedade em geral, havia misturado recursos livres e controlados em cada uma das camadas da rede. Na camada central de código, a rede era livre. O design “end-to-end” assegurava que nenhum dono de rede pudesse exercer controle sobre a rede. Na camada física, os recursos eram essencialmente controlados, mas, mesmo aqui, aspectos importantes permaneciam livres.

A pessoa tinha o direito de conectar uma máquina à rede ou não, mas as companhias telefônicas não tinham o direito de impedir esta utilização em particular. E, finalmente, na camada de conteúdo, muitos dos recursos disponibilizados por meio da internet eram controlados. Mas uma crucial variedade de softwares habilitando serviços essenciais na internet permaneceu livre. Quer seja por meio do código aberto ou pela licença do software livre, estes recursos não poderiam ser controlados.

Este equilíbrio entre controle e liberdade acabou por gerar uma explosão de inovação sem precedentes. O poder, e conseqüentemente o direito à inovação foram descentralizados. A internet pode ter sido uma invenção americana, mas criadores de todo o mundo puderam acrescer suas contribuições a esta plataforma da rede. De modo significativo, algumas das mais importantes inovações para a internet vieram de “pessoas de fora”.

Conforme já apontado, a tecnologia mais importante para o acesso e a navegação na internet (a World Wide Web) não foi inventada por companhias especializadas em prover acesso à rede. Não foi a America Online (AOL) ou a Compuserve. A Web foi desenvolvida por um pesquisador, em um laboratório suíço, que foi o primeiro a visualizar o seu potencial e então lutar para trazê-la à fruição. Da mesma forma, não foram os provedores de e-mail existentes que trouxeram a idéia do e-mail baseado na Web. Este foi co-criação de um imigrante indiano nos Estados Unidos, Sabeer Bhatia, e acabou originando uma das comunidades com maior índice de crescimento na história — o Hotmail.

E também não foram os provedores de rede tradicionais ou as companhias telefônicas que inventaram os aplicativos que possibilitam a propagação das conversas online. O serviço original de conversação em comunidades (ICQ) foi invenção de um israelense, longe das trincheiras do design da rede. O seu serviço pôde se expandir (e ser então adquirido pela AOL por 400 milhões de dólares) apenas e tão somente porque a rede foi deixada aberta para este tipo de inovação.

De modo parecido, a revolução na venda de livros iniciada pela Amazon.com (por meio da utilização de tecnologias que “comparavam preferências” dos clientes) foi dissimulada ao largo das tradicionais associações de editores. Pelo acúmulo de uma grande quantidade de informações sobre compras feitas por clientes, a Amazon — utilizando-se de uma tecnologia desenvolvida primeiramente no MIT e na Universidade de Minnesota, destinada a filtrar notícias na Usenet — consegue prever o que um cliente provavelmente irá querer. Essas recomendações orientam as vendas, mas sem os altos custos de publicidade e promoção. Conseqüentemente, livrarias como a Amazon puderam superar comerciantes tradicionais de livros, o que pode ser uma das razões para a rápida expansão da Amazon na Ásia e na Europa.

Essas inovações ocorrem no nível de serviços da internet. Ainda mais profundas têm sido as inovações no nível do conteúdo. A internet não apenas inspirou a invenção, mas também a publicação de uma maneira que nunca seria possível no mundo dos editores tradicionais. A criação de arquivos online de letras de música, seqüências de acordes e bancos de dados colaborativos coletando informações sobre CDs e filmes demonstra o tipo de criatividade que só foi possível porque o direito de criar não havia sido controlado.

Mais uma vez, as inovações não se limitaram aos Estados Unidos. A OpenDemocracy.org, por exemplo, é um fórum estabelecido em Londres e centralizado na Web, que se destina aos debates e intercâmbios sobre democracia e governabilidade por todo o mundo. Tais fóruns apenas são viáveis porque não é necessária nenhuma coordenação entre os ativistas internacionais. E ele prospera porque pode gerar debates a baixos custos.

Esta história deveria servir de lição. Toda inovação relevante na internet surgiu fora dos provedores tradicionais. O novo cresce para longe do antigo. Esta tendência ensina a importância de se deixar à plataforma aberta às inovações. Infelizmente, essa plataforma encontra-se em estado de sítio. Toda ruptura tecnológica cria vencedores e perdedores.

Os perdedores têm interesse em evitar a ruptura, se puderem. Essa foi à lição ensinada por Machiavelli, e é a experiência com toda alteração tecnológica importante que ocorre. E é, também, o que nós estamos hoje vislumbrando com a internet. O bem comum da inovação da internet ameaça interesses importantes e poderosos, que já existiam antes da internet. Durante os últimos cinco anos, esses interesses se mobilizaram para lançar uma contra-revolução que está agora tendo um impacto global.

Este movimento é engrandecido por meio da pressão, tanto na camada física quanto na de conteúdo da rede. Essas alterações, por sua vez, acabam por pressionar a liberdade da camada de código. Essas mudanças irão gerar um efeito na oportunidade de crescimento e inovação que a internet apresenta. Os responsáveis pelas decisões que estiverem dispostos a proteger esse crescimento devem ser céticos a respeito das mudanças capazes de ameaçá-lo. A inovação em larga escala pode colocar em risco os lucros de alguns interessados, mas as vantagens sociais desse crescimento imprevisível irão superar em muito as perdas particulares, especialmente nas nações que estão apenas começando a se incluir digitalmente.

Protegendo o Espaço Comum

A internet tomou impulso por meio das linhas telefônicas. Serviços discados que se utilizam de modems acústicos possibilitaram a milhões de computadores a conexão através de milhares de PSIs. Os provedores de serviços de telefonia locais tiveram que propiciar aos PSIs o acesso ao cabeamento local, não tendo permissão para criar impedimentos ao serviço de internet. Assim, a plataforma física sobre a qual a internet surgiu foi regulamentada para permanecer neutra. A regulamentação teve um importante efeito. Uma indústria embrionária pôde emergir nos cabos telefônicos, independentemente da vontade das companhias telefônicas.

Mas, à medida que a internet caminha da banda estreita para a banda larga, o ambiente de regulamentação se modifica. A tecnologia de banda larga dominante nos Estados Unidos atualmente é o cabo. Os cabos são submetidos a um regime de regulamentação diferenciado. Os provedores a cabo em geral não têm a obrigação de garantir acesso às suas instalações. E o cabo garantiu a possibilidade de controle sobre a utilização do serviço prestado na internet.

Conseqüentemente, os provedores a cabo começaram a pressionar em direção a um diferente conjunto de princípios na camada de código da rede. As empresas a cabo desenvolveram tecnologias que permitem utilizá-las como forma de controle do serviço que é disponibilizado. A Cisco, por exemplo, desenvolveu dispositivos com base em políticas pré-estabelecidas que permitem às empresas a cabo escolher qual conteúdo flui rapidamente e qual flui gradativamente. Com essas e outras tecnologias, as companhias a cabo ficaram em posição de exercer poder sobre o conteúdo e os aplicativos que são operacionalizados em suas redes.

Esse controle já começou nos Estados Unidos. Os PSIs que prestam serviços via cabo utilizam esse poder para banir certos tipos de aplicativos (especificamente, aqueles que possibilitam serviços peer-to-peer). Eles bloqueiam determinados conteúdos em particular (publicidade de concorrentes, por exemplo) quando não são compatíveis com o seu modelo de negócio. O modelo para estes provedores é geralmente o modelo da TV a cabo — o controle do acesso e conteúdo é realizado na extremidade do provedor.

O ambiente de inovação na rede original poderá se modificar à medida em que o cabo vir a se tornar o modelo primário de acesso à internet. Ao invés de uma rede que situa a inteligência nas extremidades, a rede dominada pelos cabos coloca um grau crescente de inteligência dentro da rede em si. E, à medida que isso acontece, a rede amplia a possibilidade de comportamentos estratégicos em favor de certas tecnologias e contra outras. Uma característica essencial da neutralidade na camada de código acaba sendo comprometida, reduzindo as oportunidades para inovação em todo o mundo.

Ainda mais dramática, contudo, tem sido a pressão da camada de conteúdo sobre a camada de código. Esta pressão surge de duas formas. Primeiro, e mais diretamente relacionada ao conteúdo descrito acima, houve uma explosão na regulamentação de patentes no contexto do software. Segundo, os titulares de direitos autorais têm exercido um controle crescente sobre as novas tecnologias de distribuição.

As mudanças na regulamentação das patentes são mais difíceis de explicar, embora as conseqüências sejam facilmente constatadas. Duas décadas atrás, o departamento de patentes norte-americano(13) começou a concedê-las a invenções semelhantes ao software. No final da década de 90, a Corte, ao analisar estas patentes, finalmente aprovou a prática e sua extensão aos modelos de negócios(14). Muito embora a União Européia tenha adotado inicialmente uma atitude mais cética em relação às patentes de software, a pressão vinda dos Estados Unidos acabará eventualmente por conduzi-la a um alinhamento com a política americana.

Em princípio, essas patentes têm como finalidade estimular a inovação. Mas no caso da inovação seqüencial e complementar, há pouca evidência de que as patentes irão trazer algum benefício, e os indícios são cada vez maiores de que irão acarretar prejuízos. Como em qualquer regulamentação, as patentes geralmente acabam por taxar o processo inovador. Como em qualquer taxa, algumas empresas — provavelmente as grandes e não as pequenas, as americanas e não as estrangeiras — estão em melhores condições de suportá-la que outras. Especialmente os projetos de código aberto estão ameaçados por esta tendência, uma vez serem menores as chances de aquisição de licenças de patente apropriadas.

As mais dramáticas restrições à inovação, entretanto, estão surgindo pelas mãos dos titulares de direitos autorais. A finalidade dos direitos autorais é garantir aos artistas o controle sobre seus “escritos” por um período limitado de tempo. O sentido é o de despertar nos titulares de direitos autorais um interesse suficiente para a produção de novos trabalhos. Mas as leis de direitos autorais foram talhadas em uma época muito anterior à internet. E os seus efeitos sobre a internet têm sido os de transferir o controle sobre a inovação na distribuição de muitos para poucos.

O exemplo mais claro deste efeito é o da música online. Anteriormente à internet, a produção e distribuição de música havia se tornado extremamente concentrada. Em 2000, por exemplo, cinco companhias controlavam 84% da distribuição da música no mundo. São diversas as razões para esta concentração — incluindo os altos custos de promoção, mas o efeito dessa concentração no desenvolvimento dos artistas é significativo.

Pouquíssimos artistas obtêm lucros com o seu trabalho, e os poucos que conseguem apenas o fazem graças a um marketing de massa dos selos e gravadoras. A internet apresentou o potencial para mudar essa realidade. Pelo fato dos custos de distribuição serem tão baixos e pelo fato da rede possuir um potencial de redução significativa nas despesas de promoção, os custos da música poderiam diminuir, e o lucro dos artistas, aumentar.

Cinco anos atrás, este mercado deslanchou. Um grande número de provedores de música online começou a lutar por novos meios de distribuição da música. Alguns distribuíam MP3s mediante pagamento em espécie (eMusic.com). Alguns desenvolviam tecnologias que propiciavam aos detentores um acesso facilitado às músicas (mp3.com). E outros tornaram muito mais fácil aos usuários comuns “compartilharem” suas músicas com outros usuários (Napster). Mas tão rapidamente quanto essas companhias tomaram impulso, advogados representando os interesses da mídia tradicional obtiveram êxito em detê-las, sob o argumento de que a lei de direitos autorais conferia aos detentores (fala-se em meros acumuladores) de direitos autorais o direito exclusivo de controle sobre a forma de utilização de suas obras. As cortes americanas concordaram.

Para manter a discussão dentro do contexto, nós devemos pensar a respeito do último exemplo de uma mudança tecnológica que acabou facilitando um modelo muito diferente de distribuição de conteúdo: a TV a cabo, que tem sido propriamente chamada de primeiro grande Napster. Os proprietários dos sistemas de televisão a cabo basicamente montam a antena, “furtam” as transmissões pelo ar e então vendem esta “propriedade furtada” a seus clientes. Quando as cortes americanas foram questionadas para acabar com esse “furto”, elas se recusaram. Por duas vezes a Corte Suprema Americana julgou que esta utilização do material de terceiros, protegido por direitos autorais, não era incompatível com a lei de copyrights.

Quando o Congresso americano finalmente se dignou a alterar a legislação, acabou descobrindo um equilíbrio que é um exemplo importante. O Congresso garantiu aos proprietários dos direitos autorais o direito à compensação pela utilização de seu material em transmissões a cabo, mas acabou por conceder às companhias de cabo o direito de transmitir o material protegido. A razão para este equilíbrio não é difícil de compreender. O direito à compensação pelo trabalho certamente é garantido aos proprietários de direitos autorais. Mas esse direito à compensação não pode ser traduzido em poder para controlar as inovações. Ao invés de proporcionar aos titulares de direitos autorais a possibilidade de vetar uma determinada utilização de seu trabalho (neste caso, porque iria competir com a transmissão pelo ar), o Congresso garantiu aos detentores o direito ao pagamento, mas sem que houvesse o poder de controle — uma compensação descontrolada.

O mesmo equilíbrio poderia ter sido encontrado pelo Congresso no contexto da música online. Mas desta vez, as cortes não hesitaram em estender o controle aos titulares dos direitos autorais. Assim, os poucos detentores desses copyrights foram capazes de por fim à existência de distribuidores concorrentes. E o Congresso não estava motivado a reagir concedendo um direito compulsório equivalente. O alvo da estratégia das gravadoras era muito simples: colocar um fim nesses novos modelos concorrentes de distribuição e substituí-los por um modelo de distribuição de música online mais adequado ao modelo tradicional.

Esta manobra foi apoiada pelas ações do Congresso. Em 1998, o Congresso aprovou o Digital Millennium Copyright Act (DMCA), que (in)corretamente baniu as tecnologias capazes de burlar a proteção de direitos autorais, bem como instituiu sólidos incentivos para que os PSIs removessem de seus domínios qualquer material reivindicado com sendo uma violação aos direitos autorais.

Aparentemente, ambas as mudanças foram suficientemente sensatas. As tecnologias de proteção aos direitos autorais são análogas às fechaduras. Que direito alguém tem de arrombar uma fechadura? E os PSIs estão em posição privilegiada para garantir que violações de direitos autorais não ocorram em seus Web sites. Por que não criar incentivos para que eles removam os materiais que afrontam os direitos autorais?

Mas as aparências enganam. Uma tecnologia de proteção de direitos autorais é apenas um código que controla o acesso ao material protegido. Mas este código pode restringir o acesso com mais eficácia (e certamente menos sutilmente) que por meio da legislação de direitos autorais. Freqüentemente, o desejo de quebrar sistemas de proteção nada mais é do que o desejo de exercer o que é chamado algumas vezes de um direito de utilização justa (15) do material protegido. Ainda assim o DMCA baniu essa tecnologia, independentemente de seus efeitos finais.

Ainda mais perturbador, no entanto, é que o DMCA efetivamente acabou por banir essa tecnologia em escala global. O programador russo Dimitry Sklyarov, por exemplo, escreveu um código para sublimar a tecnologia do Adobe’s eBook no intuito de possibilitar aos usuários a transferência de eBooks de uma máquina para outra, e de possibilitar aos consumidores cegos a capacidade de “ler” em voz alta os livros adquiridos por eles.

O código escrito por Sklyarov foi considerado legal onde foi criado, mas quando ele estava sendo vendido por sua companhia nos Estados Unidos, ele tornou-se ilegal. Quando Sklyarov veio para os Estados Unidos em julho de 2001 para fazer uma palestra sobre esse código, o FBI o prendeu. Hoje Sklyarov está enfrentando uma condenação de 25 anos por ter escrito um código que pode ser utilizado tanto para fins justos, quanto para violar direitos autorais.

Problemas semelhantes surgiram com o dispositivo que dá aos PSIs o incentivo para retirar da rede materiais que infringem os direitos autorais. Quando um PSI é notificado que algum material em seu site está violando direitos autorais, ele pode escapar da responsabilização removendo esse material. Como ninguém quer se expor à responsabilização, o resultado prático de uma notificação como esta é que o PSI acabe por remover o material. Cada vez mais as companhias que tentam se proteger têm invocado este dispositivo para silenciar os críticos. Em agosto de 2001, por exemplo, uma companhia farmacêutica inglesa invocou o DMCA para forçar um PSI a tirar do ar um site de defesa dos animais que criticava a empresa. O PSI afirmou que “é evidente que [a companhia inglesa] quer apenas silenciá-los”, mas os PSIs não têm nenhum incentivo para resistir às reclamações.

Em todos esses casos, existe um padrão comum. Na pressa de conceder aos titulares de direitos autorais o controle sobre seu conteúdo, os detentores obtiveram também a capacidade de se proteger de inovações que possam ameaçar os modelos existentes de negócios. A lei torna-se um instrumento para garantir que novas inovações não substituam as antigas — quando, ao invés disso, a finalidade da legislação de proteção aos direitos autorais e de patentes deveria ser, conforme requer a Constituição americana, a de “promover o progresso da ciência e das artes úteis”(16).

Essas legislações não irão afetar apenas os norte-americanos. A jurisdição ampliada que é requerida pelas cortes americanas, acrescida da pressão exercida pela Organização Mundial da Propriedade Intelectual — OMPI (17) para que leis semelhantes sejam promulgadas em outros países, indicam que o impacto desse tipo de controle será sentido globalmente. Não existe um “local” quando o tema é a corrupção dos princípios básicos da internet.

Na medida em que essas mudanças enfraquecem os movimentos de open source e do free software, países com tudo para lucrar com esta plataforma livre e aberta irão perder. Dentre os prejudicados estarão as nações em desenvolvimento e as nações que não querem possibilitar o controle por uma única corporação privada. E à medida que o conteúdo torna-se mais controlado, as nações que poderiam se beneficiar de outros modos com a forte concorrência na transmissão e criação de conteúdo irão perder. Uma explosão de inovação na entrega de MP3s poderia se traduzir diretamente em uma inovação para a realização de chamadas telefônicas e transmissão de conteúdos em vídeo. A redução nos custos dessa mídia poderia beneficiar dramaticamente as nações que ainda sofrem com uma débil infra-estrutura técnica.

Os governos em todo o mundo devem reconhecer que os interesses mais fortemente protegidos pela contra-revolução na internet não serão os deles próprios. Eles deveriam ser céticos a respeito de mecanismos legais que permitem aos mais ameaçados pela inovação do bem comum resistir a isso. A internet prometeu ao mundo — particularmente aos mais fracos no mundo — a mais rápida e mais dramática alteração nas barreiras existentes ao crescimento. Esta promessa depende da rede permanecer aberta às inovações. E esta abertura depende de uma política que compreenda melhor o passado da internet.

*Título original: “The Internet Under Siege”, publicado na Foreign Policy Magazine em 01/11/2001. Tradução livre de Omar Kaminski e Ana Paula Gambogi Carvalho, sob uma licença da CreativeCommons.

Notas de Rodapé

1- O autor utiliza a palavra ‘commons’ para designar tanto um bem comum quanto uma área pública aberta.

2- The Tragedy of the Commons

3- Na informática, argumento é o dado transferido para uma função ou programa no momento que for requerido. End-to-end significa extremo-a-extremo, fim-a-fim.

4- European Organization for Nuclear Research – CERN

5- Em informática, “code” significa a seqüência de códigos, de expressões em linguagem de programação.

6- “Free” pode possuir também, nesse contexto, o sentido de “gratuito”.

7- U.S. Federal Communications Commission

8- Internet Service Providers – ISPs

9- Alusão às tradicionais linhas “físicas” de telefones, implantadas pela Bell a partir de 1889, para chamadas de longa distância.

10- Open source é um termo utilizado para descrever o código-fonte aberto a mudanças e adições.

11- Nome dado ao computador principal de uma rede que comanda e controla as ações de outros computadores.

12- Lessig utiliza o termo “plumbing-oriented” em analogia ao sistema de tubos utilizados para o suprimento de água, onde predominam rotas verticais interconectadas.

13- U.S. Patent Office

14- Business methods, métodos de um componente que implementa a lógica ou o método negocial de um aplicativo.

15- Fair use.

16- To “promote the progress of science and useful arts”.

17- World Intellectual Property Organization – WIPO

Revista Consultor Jurídico

Sobre o autor

Lawrence Lessig: é advogado, professor, fundador do Center for internet and Society da Stanford Law School (EUA), presidente e fundador do projeto Creative Commons, diretor da FSF — Free Software Foundation e autor das obras “Code and Other Laws of Cyberspace”, “The Future of Ideas” e “Free Culture”.

Deixe um comentário

O seu endereço de e-mail não será publicado.


Você está prestes a ser direcionado à página
Deseja realmente prosseguir?
Atendimento