A lei de 1996 que criou a web está na mira

As empresas de Internet há muito tempo estão protegidas da responsabilidade legal por conteúdo tóxico do usuário pelo estatuto da Seção 230. Agora que eles são enormes, ricos e se comportam mal, esse presente pode ser levado embora.

A lei de 1996 que criou a web está na mira

Era 1995. Bill Clinton estava na Casa Branca. Seinfeld e Amigos dominado o horário nobre na TV. Radiohead estava no rádio. A internet ainda era um bebê inocente (exceto para pornografia, é claro), mas as pessoas podiam prever que seria enorme.

Naquele ano, conta a história, o congressista da Califórnia Chris Cox estava em um avião de volta a Washington quando leu que o primeiro provedor de serviços online Prodigy havia sido processado por difamação por algo que um usuário postou em um de seus quadros de avisos. A pessoa anônima acusou uma corretora de valores de Long Island (mais tarde imortalizada em O Lobo de Wall Street ) de fraude em relação a uma oferta pública inicial. A opinião majoritária da Suprema Corte do Estado de Nova York disse que, como o Prodigy postava diretrizes do usuário, usava moderadores e fazia a varredura em busca de conteúdo indecente, era, portanto, um editor e, portanto, legalmente responsável pelo conteúdo que os usuários publicassem em seu site.

Isso perturbou Cox, que pensava que Prodigy estava sendo punido por tentar ativamente manter sua própria casa limpa e ordeira. Cox imaginou um futuro em que as empresas de internet iniciantes seriam processadas por causa de sua responsabilidade por conteúdo prejudicial postado por usuários. Então ele decidiu fazer algo a respeito.



De volta a D.C., Cox trabalhou com o congressista do Oregon, Ron Wyden, para co-patrocinar um projeto de lei que isolaria as empresas de internet de grande parte de sua exposição legal do conteúdo do usuário. O projeto de lei que os dois homens escreveram acabou se tornando um complemento da Lei de Decência nas Comunicações, que faz parte da Lei de Telecomunicações de 1996.

Wyden me disse no mês passado que § 230 abriu as portas para trilhões de dólares de investimento na internet. E, por uma variedade de razões, a web floresceu e mudou profundamente nossa vida pessoal e empresarial. Fortunas foram feitas.

Mas a Internet mudou muito desde 1996. As plataformas de tecnologia ficaram maiores do que qualquer um imaginava que seriam, e estão sendo usadas de maneiras diferentes do que qualquer um poderia ter previsto naquela época - algumas boas, outras ruins. E o problema de conteúdo prejudicial postado por usuários nunca foi embora - em vez disso, ficou muito pior e possivelmente fora de controle.

Diante da intratabilidade desse conteúdo tóxico e da futilidade das tentativas dos gigantes da tecnologia de lidar com ele, tornou-se uma crença dominante em Washington, DC - e uma percepção crescente no Vale do Silício - de que não é mais uma questão de saber se, mas como regular empresas como Google, Twitter e Facebook para responsabilizá-los pelo conteúdo de suas plataformas. Uma das maneiras mais prováveis ​​de o Congresso fazer isso seria revisar a Seção 230.

por que minha restituição de imposto está atrasada

Compreendendo a Seção 230

A seção 230 continua sendo uma parte mal compreendida da lei. Como Wyden me explicou, o estatuto fornece tanto um escudo quanto uma espada para as empresas de internet. O escudo protege as empresas de tecnologia de responsabilidade por conteúdo prejudicial postado em suas plataformas pelos usuários. A saber:

(c) (1) Nenhum provedor ou usuário de um serviço de computador interativo deve ser tratado como editor ou locutor de qualquer informação fornecida por outro provedor de conteúdo de informação.

Especificamente, isenta os operadores de plataforma da web da responsabilidade quando seus usuários postam conteúdo que viola a lei estadual, difamando outra pessoa ou grupo, ou pintando alguém ou algo sob uma luz falsa, ou divulgando publicamente fatos privados. Seção 230 não proteger as empresas de tecnologia de responsabilidades criminais federais ou de reivindicações de propriedade intelectual.

Como o conteúdo é postado em suas plataformas tão rapidamente, não há como eles policiarem tudo, disse o senador Wyden.

A espada se refere à cláusula do bom samaritano do 230, que dá às empresas de tecnologia cobertura legal para as escolhas que fazem ao moderar o conteúdo do usuário. Antes do § 230, as empresas de tecnologia hesitavam em moderar o conteúdo por medo de serem editores de marca e, portanto, responsabilizadas pelo conteúdo tóxico do usuário em seus sites. Pela cláusula:

(c) (2) (a) Nenhum provedor ou usuário de um serviço de computador interativo será responsabilizado por conta de qualquer ação tomada voluntariamente de boa fé para restringir o acesso ou a disponibilidade de material que o provedor ou usuário considera obsceno, lascivo, lascivo, sujo, excessivamente violento, hostil ou de outra forma questionável, seja ou não tal material protegido constitucionalmente

Eu queria ter certeza de que as empresas de internet poderiam moderar seus sites sem serem derrotadas por ações judiciais, disse Wyden na Câmara em março. Acho que todos podem concordar que é um cenário melhor do que a alternativa, o que significa sites escondendo suas cabeças na areia com medo de serem sobrecarregados com responsabilidades.

Muitos legisladores, incluindo Wyden, sentem que os gigantes da tecnologia têm demorado a detectar e remover conteúdo prejudicial do usuário, que eles usaram a cobertura legal fornecida pelo § 230 para evitar assumir responsabilidade ativa pelo conteúdo do usuário em suas plataformas.

E em 2016, o conteúdo prejudicial não prejudicava apenas indivíduos ou empresas, mas sociedades inteiras. Sites sociais como o YouTube tornaram-se plataformas de recrutamento involuntárias para grupos terroristas violentos. Hackers russos transformaram o Facebook em uma arma para espalhar desinformação, o que causou divisão e rancor entre os eleitores, e corroeu a confiança no resultado da eleição presidencial dos EUA de 2016.

Como Wyden apontou no plenário do Senado em março, os gigantes da tecnologia até lucraram com o conteúdo tóxico.

A seção 230 significa que elas [empresas de tecnologia] não são obrigadas a verificar os fatos ou eliminar cada vídeo, postagem ou tweet, disse Wyden. Mas tem havido muitos exemplos alarmantes de algoritmos que levam conteúdo vil, odioso ou conspiratório ao topo dos sites em que milhões de pessoas clicam todos os dias - empresas que parecem ajudar na disseminação desse conteúdo como uma função direta de seus negócios modelos.

E o dano pode piorar muito. Futuros maus atores podem usar aprendizado de máquina, linguagem natural e tecnologia de visão computacional para criar um vídeo convincente ou imagens de áudio que retratam uma pessoa fazendo ou dizendo algo provocativo que ela realmente não fez ou disse. Esse conteúdo Deepfake, habilmente criado e implantado com o assunto certo no momento certo, pode causar sérios danos a indivíduos, ou mesmo danos calamitosos a nações inteiras. Imagine um presidente fingido acessando o Twitter para declarar guerra à Coreia do Norte.

É uma crença cada vez maior em Washington em 2018 que as empresas de tecnologia podem se tornar mais focadas em manter esse conteúdo prejudicial do usuário fora de suas plataformas se as proteções legais fornecidas em § 230 forem retiradas.

Protetores gigantes

Há uma questão real sobre se o escudo de Wyden ainda serve. A seção 230 diz que as empresas da web não serão tratadas como editores, mas elas se parecem muito mais com editores em 2018 do que em 1996.

Em 1996, sites e serviços muitas vezes pareciam versões digitais de coisas do mundo real. Craigslist era essencialmente uma versão digital dos classificados. A Prodigy ofereceu acesso à internet e alguns quadros de avisos. GeoCities permite que os homesteaders construam páginas que foram organizadas (por tipo de conteúdo) em bairros ou cidades.

Com o tempo, os modelos de negócios dominantes mudaram. Muitas empresas e editores da Internet passaram a confiar na publicidade interativa para obter receita, um modelo de negócios que dependia do rastreamento do navegador e da coleta de dados pessoais dos usuários para direcionar os anúncios.

Para aumentar o engajamento, as empresas de internet passaram a personalizar seus sites para que cada usuário tivesse uma experiência diferente e única, feita sob medida para seus interesses. Os sites se tornaram experiências altamente selecionadas e servidas por algoritmos. E os algoritmos eram alimentados pelos dados pessoais e históricos de navegação dos usuários.

O Facebook surgiu em 2004 e logo levou a coleta de dados do usuário para o próximo nível. A empresa forneceu uma rede social gratuita, mas coletou os dados pessoais dos usuários para direcionar anúncios para eles no Facebook e em outros lugares na web. E os dados eram muito bons. O Facebook não só pode capturar todos os tipos de dados sobre os gostos de um usuário, mas também pode capturar os gostos dos amigos do usuário. Isso foi um apelo para os anunciantes porque os dados sociais provaram ser um indicador poderoso dos tipos de anúncios em que o usuário poderia clicar.

O Facebook também aproveitou seus copiosos dados de usuário, incluindo aqueles sobre cliques, curtidas e compartilhamentos do usuário, para informar os algoritmos complexos que fazem a curadoria do conteúdo nos feeds de notícias dos usuários. Ele começou a mostrar aos usuários postagens, notícias e outros conteúdos aos quais o usuário - com base em seus gostos pessoais - tinha maior probabilidade de responder. Isso colocou mais coisas atraentes na frente dos olhos de seus usuários, o que aumentou o engajamento e criou mais oportunidades para exibir anúncios.

Isso se parece muito com o trabalho de um editor. Nosso objetivo é construir o jornal personalizado perfeito para cada pessoa no mundo, disse o CEO do Facebook, Mark Zuckerberg, em 2014.

Mas o Facebook sempre foi rápido em insistir que não é um editor, apenas uma plataforma de tecnologia neutra. Há um bom motivo para isso: os editores são responsáveis ​​pelo conteúdo que publicam em seus sites; plataformas neutras desfrutam das proteções na Seção 230.

Uma lacuna desatualizada que o Google e o Facebook podem explorar

Mas, na realidade, o Facebook não é tão diferente de um editor, argumenta o ex-funcionário de tecnologia da Casa Branca Mikey Dickerson. Uma vez que as empresas colocam suas mãos (ou seus algoritmos) no processo de tomada de decisões sobre qual conteúdo mostrar aos usuários individuais, Dickerson diz, elas estão agindo como editores.

Dickerson, que passou boa parte de sua carreira no Google, diz que as grandes plataformas da web evoluíram tanto desde 1996 que a Seção 230 não se encaixa mais. Acho que é uma lacuna desatualizada que o Google e o Facebook podem explorar, ele me disse.

Aaron Mackey, advogado da Electronic Frontier Foundation, não acredita que a curadoria de sites das empresas de tecnologia as torne necessariamente menos merecedoras das proteções da Seção 230. Mackey disse que a linguagem no § 230 foi escrita com a intenção de dar aos sites a proteção legal para exercer controle sobre o conteúdo do usuário em seus sites. Ou seja, moderar.

Existe uma diferença importante entre curadoria e moderação? As empresas de Internet usam curadoria para maximizar o envolvimento do usuário. Eles moderam para manter suas plataformas livres de conteúdo tóxico do usuário. A curadoria, sem dúvida, é um processo de seleção (algoritmicamente) de conteúdo para mostrar a um usuário, enquanto a moderação é um processo de deselecionando conteúdo - de forma proativa por meio de um conjunto de regras de conteúdo ou reativamente por meio de métodos de pesquisa e remoção.

Como evitar machucar os pequeninos

Rever a Seção 230 seria uma coisa fácil de estragar. As leis são tão boas quanto seus efeitos práticos. Boas leis causam mais bem do que mal.

Não há uma solução simples para a linguagem em § 230 que repentinamente a adaptaria às necessidades de 2018. Qualquer mudança parece destinada a ajudar alguns interesses e prejudicar outros.

Remover completamente as proteções do § 230 pode realmente ajudar grandes empresas de internet, como Google e Facebook, e prejudicar as pequenas empresas inovadoras que o estatuto foi originalmente criado para ajudar. A seção 230 sempre foi sobre o pequeno, Wyden me disse, as empresas menores que não o fizeram. t tinha grandes saguões e não tinha bolsos fundos, para que um dia pudessem crescer. Wyden diz que teme que deixar pequenas empresas de Internet expostas a ações judiciais de indivíduos e estados possa tirá-las do mercado. Eles estariam gastando todo o seu tempo no tribunal e todo o seu dinheiro pagando custas judiciais, custas judiciais e danos.

Enquanto isso, as grandes empresas de Internet estabelecidas podem arcar com os custos legais. E podem se beneficiar porque a nova exposição legal pode criar uma grande barreira à entrada de empresas jovens que tentam entrar no mercado.

Há o perigo de mudar a lei de uma forma que não melhore a situação para as pequenas empresas, mas faça com que as grandes empresas se tornem cada vez mais enraizadas, acrescenta Mackey da EFF.

Dickerson diz que pode haver maneiras de lidar com esse problema. Os legisladores poderiam reservar as proteções do § 230 para pequenas empresas, mas não para as grandes. Se você tem ganhos de mais de US $ 100 milhões por ano, você é responsável pelo conteúdo, por exemplo, disse Dickerson. Se você for menor, terá as proteções do § 230. Dickerson diz que estabelecer tais limites na lei é mais comum na Europa, onde os reguladores não têm tanto escrúpulos em regulamentar as grandes empresas.

Também existe uma possibilidade real de que tornar as empresas de tecnologia mais responsáveis ​​pelo conteúdo do usuário teria um efeito negativo sobre a liberdade de expressão online. As empresas da web que enfrentam a nova ameaça de ações judiciais podem errar no lado da segurança, restringindo ou removendo todos os tipos de conteúdo do usuário, exceto os mais seguros.

Eles seriam colocados na posição de julgar se um conteúdo do usuário é, por exemplo, desinformação prejudicial ou sátira legítima. Por outro lado, como argumentou o senador democrata Mark Warner, os operadores do site, não o governo e nem os tribunais, podem estar na melhor posição para fazer esses julgamentos e remover o conteúdo que viola as diretrizes da comunidade.

O risco de agir pelos motivos errados

No ambiente político atual, existe o risco de que os legisladores possam atacar o § 230 por razões políticas ou porque não entendem totalmente o estatuto de Wyden e Cox e sua intenção.

A raiva contra as empresas de tecnologia não é um motivo bom o suficiente para agir, diz Mackey. Atualmente, há muita reação contra as plataformas online e, especialmente, contra as empresas de mídia social. Mas agir com base nisso como um motivo para remover as proteções da Seção 230 só pioraria as coisas, disse Mackey.

Muitos republicanos acreditam que as empresas de tecnologia do Vale do Silício estão determinadas a suprimir o conteúdo conservador em suas plataformas.

Um deles é o senador Ted Cruz, que disse o seguinte durante um debate em outubro com Beto O’Rourke: Neste momento, as grandes tecnologias gozam de imunidade de responsabilidade na suposição de que seriam neutras e justas, disse Cruz. Se eles não forem neutros e justos, se eles forem tendenciosos, devemos revogar a imunidade de responsabilidade para que eles sejam responsáveis ​​como o resto de nós.

Cruz sugeriu a mesma coisa ao questionar Mark Zuckerberg do Facebook durante uma audiência no Senado em abril: O predicado para a imunidade da Seção 230 sob o CDA é que você é um fórum público neutro, disse Cruz. Você se considera um fórum público neutro ou está engajado no discurso político, o que é seu direito de acordo com a Primeira Emenda?

Na verdade, a linguagem da Seção 230 não coloca nenhuma expectativa de neutralidade ou justiça nos sites, nem diz que as plataformas de tecnologia muito escolhem entre as proteções da Seção 230 e o direito à liberdade de expressão, como Cruz parecia sugerir. Ele é um advogado talentoso, então Cruz provavelmente sabe disso, mas parece estar disposto a distorcer os fatos para fins partidários.

Lascando

O fato de o termo Seção 230 estar sendo mencionado no plenário do Senado, em audiências e até mesmo na campanha eleitoral sugere que mudar a lei está na mente dos legisladores - pela primeira vez em anos. Mackey da EFF acredita que os membros do Congresso já telegrafaram sua intenção.

r. kelly gayle king

Sabemos que este é o caso porque o Congresso acaba de aprovar um projeto de lei que minou as proteções de responsabilidade com relação a conteúdo sobre material adulto e trabalho sexual online, disse ele.

Ele está se referindo à Lei de Permissão de Estados e Vítimas de Combate ao Tráfico de Sexo Online ( ANTIGO ), que foi assinado em lei em março. A lei cria outra exceção à ampla imunidade legal fornecida aos operadores de sites pela Seção 230. A FOSTA acrescentou texto à Seção 230 dizendo que os sites que hospedam anúncios de tráfico sexual agora estão sujeitos a ações judiciais movidas por vítimas de tráfico sexual e suas famílias, ou movidas pelo estado procuradores-gerais.

Foi o site Backpages.com que preparou o cenário para o FOSTA. Descobriu-se que o site hospedava milhares de anúncios postados por traficantes de sexo. Na verdade, backpages estava fornecendo o canal entre johns e prostitutas, muitas delas menores de idade. E algumas dessas prostitutas acabaram mortas. Mas, como os operadores do site foram protegidos pela Seção 230, as famílias das vítimas não puderam processar o Backpages.com. Nem os procuradores-gerais estaduais podem mover ações em nome das vítimas e de suas famílias. Só depois de um Federal investigação descobriu que Backpages estava ativamente solicitando os anúncios de tráfico sexual eram os principais trazido à justiça . A FOSTA expôs qualquer site que trate de conteúdo de tráfico sexual a ações judiciais.

O FOSTA tem grandes implicações para o futuro da Seção 230. O tráfico sexual provavelmente não é o último tipo de conteúdo do usuário que os legisladores decidirão isentar das proteções do 230. Revisões futuras podem usar o FOSTA como modelo para extrair conteúdo como anúncios projetados para minar as eleições nos EUA, discurso de ódio online ou pornografia de vingança.

Aqui está Wyden falando no plenário do Senado sobre os efeitos de longo prazo do FOSTA antes do projeto de lei ser aprovado em março: Em última análise, temo que este projeto irá desencadear uma reação em cadeia que levará o Congresso a eliminar mais categorias de comportamento da Seção 230 e desmantelar o estrutura legal que deu aos Estados Unidos a posição que ocupam como uma superpotência da economia tecnológica.

Foi notável que Sheryl Sandberg e o Facebook se manifestaram a favor do FOSTA. Foi um movimento político altamente calculado. As grandes empresas de tecnologia percebem que uma nova regulamentação, de alguma forma, está chegando, e a principal tarefa de suas ligas crescentes de lobistas em D.C. é influenciar a nova legislação em seus próprios interesses. Apoiar uma lei relativamente inofensiva pode impedir o avanço de outras mais dolorosas no futuro, diz o pensamento. Apoiar o FOSTA foi uma forma de baixo custo de apresentar o Facebook como um participante não hostil no processo.

Envolvimento e conexão

Se o conteúdo de tráfico sexual desqualifica o operador do site das proteções da Seção 230, que outras categorias de comportamento podem ser eliminadas? O que separa o conteúdo que merece a imunidade da Seção 230 do conteúdo que não merece?

A resposta reside não apenas na natureza do conteúdo, mas na relação do operador do site com o conteúdo.

A resposta curta é que os limites da Seção 230 sobre responsabilidade são quando a plataforma 'é responsável, no todo ou em parte, pela criação ou desenvolvimento' do conteúdo ofensivo, aponta Mackey da EFF. A linguagem que ele cita vem da seção de definições da Seção 230. Mackey acredita que as definições no estatuto já são suficientes.

Mas a linguagem no FOSTA parece definir a fasquia um pouco mais baixa. Estipula que, para ser destituído da imunidade fornecida pela Seção 230, um operador de site deve ter promovido ou habilitado a prostituição, ou agido com negligência imprudente ao fato de que sua plataforma estava criando esses efeitos. No caso do Backpages, os investigadores federais encontraram ampla evidência de que os operadores do site estavam trabalhando com terceiros para solicitar ativamente anúncios de tráfico sexual.

Chris Cox acredita que a Seção 230 como um todo poderia traçar uma linha mais clara entre a plataforma da web e o criador de conteúdo. Ele disse à NPR em março que o Congresso deve revisar a Seção 230 e adicionar texto explicando que quando o operador do site solicitar ativamente conteúdo ilegal, ou estiver de outra forma conectado a atividades ilegais, ele não deve mais gozar da imunidade legal fornecida pelo estatuto. As proteções da Seção 230 são destinadas a sites que agem como intermediários puros, sugeriu Cox.

Isso levanta a questão de saber se - depois de toda a intromissão eleitoral, desinformação, recrutamento de terroristas e discurso de ódio que vimos nos últimos anos - podemos olhar para o Facebook, Google, Twitter e outros e verdadeiramente chamá-los de puros intermediários.

O Facebook e o Google estavam envolvidos ou conectados com o anúncios comprados em suas plataformas por trolls russos que tentam atrapalhar a eleição presidencial de 2016? Muito possivelmente. E se a parte que compra os anúncios disser que é alguém que não é?

O Google estava envolvido ou conectado com os grupos ISIS que postavam sistemas de vídeos de recrutamento no YouTube? Afinal, esses vídeos foram servidos pelo mecanismo de sugestão do YouTube para aumentar o engajamento e as visualizações de anúncios. Da mesma forma, os algoritmos que executam o feed de notícias do Facebook foram ajustados para trazer ampla exposição às histórias e gráficos polêmicos e polêmicos e falsos, preferidos pelos trolls russos. Isso constitui envolvimento e conexão? As plataformas de tecnologia podem ser vistas como intermediários puros se forem seus algoritmos, agindo como proxies, fazendo a curadoria, moderando e promovendo o conteúdo do usuário?

Os legisladores podem ter que lutar contra essas distinções ao escolher os próximos tipos de conteúdo a serem extraídos da Seção 230, ou ao olhar para a relevância do estatuto em geral.

Wyden, e a maioria das pessoas que entrevistei para este artigo, pensam que a melhor solução para o problema de conteúdo do usuário é as empresas de tecnologia fazerem voluntariamente o que for preciso para encontrar e remover o material tóxico de suas plataformas. Na verdade, 230 foi feito para dar a eles a cobertura legal para fazer isso - para empunhar a espada de Wyden, cedo e frequentemente. O problema é que a Seção 230 não contém força de lei para obrigá-los a fazê-lo. Não há linguagem dizendo, tire esse lixo do seu site em 24 horas ou mais! Portanto, para as empresas de tecnologia, continua sendo uma questão de política pública e de relações públicas, e não algo que afeta diretamente seus resultados financeiros. As grandes empresas de plataforma têm feito apenas o suficiente de remoção de conteúdo e expulsões de malfeitores para manter as novas regulamentações sob controle.

A única vantagem real que o Congresso tem é a ameaça de retirar as proteções da Seção 230 de que as empresas de tecnologia gozam há tanto tempo. Wyden com certeza lembraria Sheryl Sandberg do Facebook e Jack Dorsey do Twitter quando os questionou durante uma audiência em setembro.

Eu disse a ambos: 'Se você não está disposto a usar a espada, existem aqueles que podem tentar tirar o escudo.