– Este caso tiene el potencial de acabar con Internet tal como lo conocemos. Internet prospera
con el contenido generado por los usuarios. Es la columna vertebral de Internet, y si escribe o dice
algo que es ilegal, puede ser considerado responsable de lo que dijo, pero generalmente los sitios web
que alojan su contenido no son responsables, y cuando se entera de la Sección 230, esto es generalmente de lo que estamos hablando, pero si los sitios web también fueran
responsables de lo que dicen los usuarios, los sitios web
cerrarían casi todo o controlarían las cosas tan
estrictamente que básicamente no habría nada ni
remotamente objetable, porque si hay
algo que los sitios web odian , está en peligro por
miles y miles de millones de dólares de responsabilidad potencial
y honorarios de abogados, y esto no es solo una
hipotética posibilidad.
En el pasado, cuando las leyes responsabilizaban a los sitios web
por el contenido de los usuarios, simplemente cerraban el
contenido y nunca volvían, y un caso ante la
Corte Suprema de este término busca hacer exactamente eso,
pero para todo Internet. No es broma, esto tiene el
potencial de acabar con Internet tal como lo conocemos hoy. Entonces … ¿cómo fue que llegamos aquí? – ¿Como llegué aqui? – Bueno, empezó con una tragedia. Nohemi González era estudiante de diseño en la Universidad Estatal de California
, Long Beach, y estaba pasando un
semestre estudiando en París.
En la noche del 15 de noviembre de 2015, estaba cenando con amigos en
un café en los Campos Elíseos cuando un terrorista de ISIS
con un arma abrió fuego. González fue asesinado junto
con otras 130 personas en ataques coordinados en seis
lugares de la ciudad. ISIS se atribuyó la responsabilidad
de los ataques y, finalmente, 20 hombres
fueron condenados por delitos relacionados con la masacre. El único pistolero sobreviviente fue sentenciado a cadena perpetua sin libertad condicional. Entonces, ¿se hizo justicia? Bueno, la familia González
sostiene que no lo fue, porque había otro perpetrador aún prófugo, YouTube. La familia demandó a Google,
propietaria de YouTube, alegando que los algoritmos de YouTube amplifican los videos violentos y el contenido de odio a pesar de los esfuerzos de la empresa por prohibir las cuentas violentas
y limitar su alcance. La familia González dice que las recomendaciones de YouTube exponen a las
personas a contenido odioso, radicalizan a los espectadores y los alientan a cometer sus propios ataques terroristas.
Google argumentó que,
debido a que ISIS, no YouTube, hizo y cargó esos videos, YouTube no era el proveedor
ni el desarrollador de esos videos y, por lo tanto, era inmune a la responsabilidad en virtud de la Sección 230 de 47 USC
, también conocida como Sección 230 de la
Ley de Decencia en las Comunicaciones. . La Sección 230 de la CDA
inmuniza a los servicios de Internet por el contenido que cargan sus usuarios y, a menudo, permite que los sitios web
eliminen contenido sin asumir ninguna responsabilidad, pero los demandantes de González sostienen que las recomendaciones de YouTube no deberían estar cubiertas por la Sección 230 porque la empresa está
actuando como un contenido. creador en lugar de un editor. El Tribunal
de Apelaciones del Noveno Circuito sostuvo que los reclamos de González
caían dentro de la Sección 230 y que Google era inmune a la demanda. Las partes de González apelaron y la Corte Suprema otorgó un certificado para responder a la pregunta de
si la Sección 230 inmuniza a un servicio de computadora interactivo
de responsabilidad por recomendar contenido de otras partes. Ahora, en apoyo de sus
afirmaciones, los demandantes alegan que, cito: "Dos de los 12 terroristas de ISIS que llevaron a cabo los ataques utilizaron plataformas de redes sociales en línea para publicar enlaces a
videos de YouTube de reclutamiento de ISIS y", cito, "videos de YouTube yihadistas".
" Uno de los hombres que le disparó a González había aparecido en un
video de reclutamiento de ISIS en 2014. Ahora, los demandantes argumentan que los acusados violaron la
Ley Antiterrorista, la ATA, al permitir que ISIS
publicara videos en YouTube. Según la Sección 2333 de la ATA, modificada por la Ley de Justicia contra los
Patrocinadores del Terrorismo, los estadounidenses que resultan lesionados por, cito, "un acto de terrorismo internacional cometido, planeado o autorizado por una organización terrorista", pueden demandar a cualquier persona quien,
cito, "ayuda y es cómplice al brindar
asistencia sustancial a sabiendas, o quien conspira con
una persona que cometió tal acto de terrorismo internacional", y recuperar daños y perjuicios. Entonces, la pregunta legal
en los tribunales inferiores era si una plataforma de redes sociales que no se usó para
cometer un "acto de
terrorismo internacional" específico, cito, todavía puede ser responsable de ayudar e instigar
según la Sección 2333.
Los demandantes dicen que la respuesta es sí, que Google ayudó e instigó un acto de terrorismo internacional, conspiró con el perpetrador de un acto de terrorismo internacional y brindó apoyo material a ISIS al permitir que ISIS usara YouTube. Y, por supuesto, los acusados dicen que no. Los reclamos del demandante están prohibidos por la Sección 230 de la
Ley de Decencia en las Comunicaciones, que a menudo inmuniza a los
servicios informáticos interactivos, también conocidos como sitios web, incluso cuando
hacen recomendaciones específicas.
El tribunal de primera instancia y el
Tribunal de Apelaciones del Noveno Circuito se pusieron del lado de Google y dictaminaron que los reclamos caían
dentro de la Sección 230, Sección C, porque ISIS, no YouTube, creó o desarrolló el contenido relevante. El tribunal dijo que YouTube, cita, "selecciona el
contenido particular proporcionado a un usuario en función de las entradas de ese usuario". La visualización de
contenido recomendado resulta de algoritmos que son meramente, cito,
"herramientas destinadas a facilitar la comunicación y el contenido de otros, y no contenido en sí mismos.
Como señalaron los tribunales inferiores, las
recomendaciones se basan en las preferencias del usuario, no YouTube. Los demandantes argumentan que la
Sección 230(c) no se aplica a, cito, "actividades que
promueven o recomiendan contenido”. Así que profundicemos en
lo que todo esto significa. En primer lugar, los demandantes
no están simplemente argumentando que Las plataformas son responsables porque los terroristas han
usado sus servicios. Argumentan que los poderosos algoritmos que recomiendan contenido
no están cubiertos por la CDA porque las recomendaciones son contenido en sí mismas, y
como dijo el Noveno Circuito, "La denuncia alega que Google
usa algoritmos informáticos para hacer coincidir y sugerir contenido a los usuarios en función de su historial de visualización". Los demandantes de González
alegan que, de esta manera, Google ha recomendado
videos de ISIS a los usuarios y les ha permitido s para ubicar
otros videos y cuentas relacionadas con ISIS, y al hacerlo, Google ayuda a ISIS a
difundir su mensaje.
Entonces, los demandantes afirman que YouTube facilita las
comunicaciones entre ISIS y las personas que miran sus videos, lo que ayuda a ISIS a
reclutar nuevos miembros. Los demandantes reconocen que
YouTube eliminó los videos de ISIS y suspendió o bloqueó a los
usuarios de ISIS en varios momentos. Sin embargo, los demandantes afirman que YouTube debería haber podido evitar que ISIS restableciera las
cuentas usando nuevas identidades, y los demandantes alegan que Google dejó algunos de los videos de ISIS porque no contenían contenido que violara las políticas del sitio, y otras veces Google
eliminó el contenido ofensivo pero no suspendió ni prohibió las cuentas. Ahora, hemos hablado sobre la
Sección 230 de la CDA muchas veces en este canal. La Sección 230 se creó en 1996 en los albores de Internet. Tiene dos disposiciones fundamentales. La sección 230(c)(1) dice, cito, "Ningún proveedor o usuario de un
servicio de computadora interactivo será tratado como el
editor o hablante de cualquier información proporcionada por otro proveedor de contenido de información".
Esta oración a menudo se llama las 26 palabras que crearon Internet. Esta sección estipula que brindar acceso a contenido de terceros no convierte a un proveedor en línea en el editor o hablante de ese contenido. Ahora, la segunda parte importante de
la ley es la Sección 230(c)(2), la llamada disposición del Buen Samaritano
, que establece, cito, "Ningún proveedor o usuario de un
servicio interactivo de computadora será responsable por cualquier acción tomada voluntariamente de buena fe para restringir el acceso o la
disponibilidad de material que el proveedor o usuario considere obsceno, lascivo, lascivo, sucio, excesivamente violento, acosador
u objetable de cualquier otro modo, ya sea que dicho material
esté protegido constitucionalmente o no. La disposición otorga a las plataformas en línea una amplia inmunidad de responsabilidad si moderan el contenido de buena fe.
Esta disposición estaba destinada a
permitir que los sitios web se vigilaran a sí mismos sin incurrir en una nueva responsabilidad, porque era una cuestión de conocimiento. Un sitio web podría no saber
qué discurso estaba alojado en ese sitio web en particular, en cuyo caso
no serían responsables por ello, pero si sabían que el
discurso ilegal o difamatorio o algún otro tipo de
discurso estaba alojado allí y luego tomaron medidas para eliminar
desde el sitio web en sí, entonces tenían conocimiento activo
de ese discurso en particular y, por lo tanto, podrían ser responsables
de alojarlo en el futuro.
Entonces, los sitios web se encontraron
en un dilema hasta que se aprobó la Sección 230 de la CDA para permitirles
moderar de buena fe, porque generalmente había
un requisito de conocimiento para ser responsable de las cosas
alojadas en su sitio web. Si no tenía conocimiento de qué tipo de discurso había en
su sitio web o plataforma, generalmente no era responsable por ello, pero el argumento era que, si comenzaba a moderar su sitio web, eso era evidencia de que
sabía lo que era. allí y, por lo tanto, usted se hizo
responsable de todas las cosas que estaba tratando de
eliminar de su sitio web. Esto se aplicaba al spam, a la pornografía, a los
medios pirateados, a la difamación, lo que sea, por lo que la
CDA se promulgó en 1996 cuando Internet
aún estaba en su infancia.
En ese momento, empresas
como America Online, CompuServe y Prodigy eran los portales que permitían a las personas
acceder a Internet. Las personas podían compartir
archivos, intercambiar mensajes y chatear entre sí en tiempo real, pero eso planteaba un dilema. ¿ Quién sería responsable si un usuario
publicara algo difamatorio o compartiera algo ilegal? ¿La responsabilidad iría más allá de la persona responsable de la publicación, o las empresas de Internet que alojaron el contenido
también estarían involucradas? Y eso nos lleva a la distinción entre editores,
distribuidores y plataformas de contenido, que a menudo se malinterpreta por completo.
En la era anterior a Internet, los editores, distribuidores y plataformas recibían un trato diferente según la ley. Los editores eran periódicos, revistas y estaciones de radiodifusión. En general, eran responsables de volver a publicar material de terceros, ya que solicitaban las
cosas que publicaban y podían examinar esos materiales. Los distribuidores eran negocios como librerías, puestos de periódicos y bibliotecas, que distribuían material
impreso por otros y
no se les exigía a los distribuidores evaluar cada libro que vendían. Por ejemplo, en la
década de 1950, la Corte Suprema anuló una ordenanza de Los Ángeles que decía que si tiene
material obsceno en su librería, puede ser penalmente responsable y, en ese caso, el propietario de una librería fue condenado por violar la ordenanza por vendiendo una novela llamada
"Sweeter Than Life", que cuenta la historia de una, cito, "mujer de negocios lesbiana despiadada". La Corte Suprema dijo que la librería no podía ser responsable de revisar cada cosa en el libro o revista que vende, y los distribuidores solo tenían
responsabilidad si alguien les notificaba que algo que vendían era ilegal.
Ese es el origen
del requisito de conocimiento. Y las plataformas eran operadores comunes como compañías telefónicas y
emisoras de televisión. Las plataformas no eran responsables del contenido de terceros que transmitían. Entonces, por ejemplo,
digamos que AT&T descubrió que el contestador automático de alguien tenía
un mensaje saliente difamatorio. ¿ Estaba AT&T obligado a actuar cancelando el
servicio telefónico del propietario? Bueno, el tribunal dijo que no. AT&T no podía ser demandado por difamación simplemente porque el propietario usó su servicio para decir algo difamatorio y, de manera similar, una
emisora no fue responsable de presentar a un candidato político que acusó falsamente a alguien
de ser comunista, pero luego apareció Internet.
, y la era de internet planteó un nuevo desafío para esta jurisprudencia.
Dos de los primeros
proveedores de servicios de Internet, CompuServe y Prodigy,
fueron demandados por albergar foros en los que los usuarios publicaban contenido difamatorio. Ahora, Prodigy se anuncia a sí mismo como una
versión familiar de Internet. – [Presentador] ¿
Conseguiste una computadora recientemente? Bueno, felicitaciones. Ahora puede unirse a los cientos de miles que han descubierto Prodigy. – Moderó comentarios, eliminando cosas que pensaba que eran malas. Ahora bien, CompuServe no moderó nada. – [Presentador] CompuServe combina
el poder de su computadora con la conveniencia de su teléfono. – Y ambas empresas fueron demandadas por declaraciones difamatorias que sus usuarios publicaron en el servicio. Ahora, el caso contra
CompuServe fue desestimado porque el tribunal
lo consideró un distribuidor de contenido en lugar de un editor.
CompuServe solo podría ser
responsable por difamación si sabía o tenía motivos para saber de la naturaleza difamatoria del contenido, y dado que no hicieron nada
para moderar sus foros, la empresa no podría saberlo, o al menos argumentarlo.
posiblemente no podía saber, sobre lo que los habitantes de Rumorville estaban publicando unos sobre otros. Pero Prodigy fue declarado responsable
por no moderar lo suficiente. Alguien fue a un foro y afirmó que la firma de inversión de Jordan Belfort,
Stratton Oakmont, cometió fraude en
relación con una oferta pública inicial de acciones. La empresa demandó a Prodigy y al cartel anónimo por difamación, y un tribunal sostuvo que Prodigy era responsable como editor del
contenido creado por sus usuarios, ya que ejercía control editorial sobre los mensajes en su tablón de anuncios. Ahora, si los nombres Jordan
Belfort y Stratton Oakmont te suenan, es porque literalmente estaban estafando a la gente
con millones de dólares y se han convertido en algunos
de los estafadores más grandes en toda la historia de Wall Street.
La película "El lobo de
Wall Street" se basa en el fraude que estaban perpetrando con respecto a las ofertas públicas iniciales, y es una de las mayores ironías de toda la ley de la Primera Enmienda que ganaron esta demanda contra las personas que estaban hospedando
presuntamente precisa. información sobre cómo estaban estafando a la
gente sin dinero. Eso es parte del problema cuando los sitios web son responsables del contenido del usuario, es que las personas pueden presentar
demandas para sofocar el discurso. De eso se trata una demanda SLAPP, y debido a que las demandas son
increíblemente costosas, a veces, incluso si
estafas a las personas sin dinero, siempre que presente una demanda, puede sofocar ese tipo
de discurso, pero estoy divagando. Como resultado de estos casos, los proveedores de servicios de Internet
básicamente decidieron no moderar nada y dejar absolutamente todo, o básicamente moderar todo y no permitir que nada suba, y básicamente nadie estaba contento
con esta situación, por lo que el Congreso promulgó la
Ley de Decencia en las Comunicaciones, y entonces, como ahora, los legisladores afirman estar especialmente
preocupados por cosas como el acoso y el material obsceno.
Así que dieron a los proveedores en línea
inmunidad frente a demandas si moderaban el contenido y, de nuevo, la ironía aquí es que esta legislación provino del tipo de
políticos del tipo de valores familiares, las personas que siempre quieren
pensar en los niños. – Oh, ¿alguien por favor
piensa en los niños? – Querían permitir que los sitios web eliminaran conductas violentas y sexuales para que Internet
pudiera ser aún más limpio. Los mismos políticos que querían y consiguieron las pequeñas advertencias de "advertencia para padres:
contenido explícito" puestas en los álbumes de rap, pero me estoy desviando de nuevo. La Sección 230 fue concebida como una forma para que las empresas de Internet
crearan y aplicaran estándares básicos para operar sus sitios web, y cuando
se decidieron los casos de CompuServe y Prodigy, los tribunales solo consideraron si los ISP eran
editores o distribuidores, pero un servicio de Internet como un sitio web no encajaba perfectamente en esas categorías.
Un editor tradicional
tiene control total sobre si publicar contenido. Un distribuidor puede controlar lo que compra, pero no hubiera sido práctico para un ser humano examinar completamente cada artículo. Las empresas modernas de redes sociales
albergan más material que cualquier biblioteca o librería en la Tierra, lo que hace que la revisión de toda esa información sea abrumadora, si no imposible,
y sin la Sección 230, las empresas de redes sociales estarían sujetas a una responsabilidad estricta por
cada mensaje y publicación realizada en su sitio web. servicios. Por lo tanto, el Congreso optó por otorgar inmunidad a
esas plataformas y sitios web como incentivo para que eliminen el discurso ofensivo. El Congreso también optó por no
dictar a esas empresas qué discurso tenían que eliminar. Eso nos lleva de vuelta a la pregunta original en este caso. ¿ Cómo deben leer los tribunales la Sección 230? Los tribunales inferiores siguen la prueba establecida en el caso del Noveno Circuito llamado Barnes v. Yahoo, y la prueba de Barnes se acerca
al texto de la Sección 230. La ley especifica que solo, uno, ningún servicio informático interactivo será, dos, tratado como editor o hablante de, tres, contenido proporcionado por otro proveedor de contenido de información
, AKA usuarios.
Ahora, los demandantes argumentan que sus reclamos no tratan a Google como un editor, sino que afirman el simple
deber de no apoyar a los terroristas. Dijeron que la ATA prohíbe que Walmart suministre fertilizantes,
cuchillos u otro material a ISIS y, de la misma
manera, la ATA prohíbe que Google le dé a ISIS una
plataforma para comunicarse. El Noveno Circuito encontró
esta analogía engañosa. La idea de un deber de no
apoyar a los terroristas, cito, "pasa por alto que la publicación en sí misma es la forma de apoyo que Google
supuestamente brindó a ISIS", y la publicación de contenido de terceros es lo que la Sección 230 otorga
a los servicios de Internet.
Según los tribunales inferiores, la
publicación abarca, cito, "cualquier actividad que pueda reducirse a decidir si se excluye el material que terceros buscan publicar en línea". Google dice que la CDA usa
las palabras editor u orador en un sentido común. Cita, "Basado en un significado ordinario, un editor u orador es uno
que publica o habla".
Google sostiene que, cuando los algoritmos de YouTube
hacen recomendaciones, esta actividad está protegida por la Sección 230. Cita: "El Congreso subrayó que la publicación a los fines de la Sección 230 incluye la clasificación de contenido a través de algoritmos mediante la definición de servicios informáticos interactivos para incluir herramientas que
seleccionen, escojan, filtren, buscar, subdividir, organizar
o reorganizar contenido. El Congreso pretendía brindar
protección para estas funciones, no simplemente para alojar
contenido de terceros". Y los demandantes no están de acuerdo. Su interpretación de esta
defensa de la Sección 230(c) es que requiere una interpretación más restringida
de la palabra editor. El Noveno Circuito
sostuvo previamente que la Sección 230(c)(1) usa editor en su sentido cotidiano, y el Segundo Circuito estuvo de acuerdo, pero los demandantes sostienen
que la palabra editor se usa en la Sección 230(c)(1) con un sentido más restringido y significado distinto, que ese término tiene en la ley de difamación.
Básicamente, los demandantes
afirman que, cada vez que YouTube recomienda otro video, se convierte en el
hablante de ese video como si YouTube lo hubiera producido él
mismo. Ahora, los acusados dicen que esta interpretación
no tiene sentido. Cita: "Vea la
Serie mundial de póquer en YouTube, y los algoritmos de YouTube pueden mostrar tutoriales de Texas Hold'em. Eso no significa que
YouTube respalde los juegos de azar más de lo que el corrector ortográfico respalda una palabra sustituta sugerida, Westlaw respalda casos enumerados más arriba o un la sala de chat respalda las
publicaciones organizadas por tema. Como señaló el Noveno Circuito, YouTube aplica los mismos
algoritmos a todo el contenido". Y es aquí donde creo que la gente suele malinterpretar
la naturaleza de Internet y la naturaleza de las redes sociales.
Con el caso de YouTube, la gente sube millones de videos al día. Si no hubiera un algoritmo para clasificar esta avalancha de videos, la única forma de clasificarlos sería una manguera contra incendios para ver
cada video cronológicamente, lo que nadie quiere. Sería eso o hacer una búsqueda específica
para tratar de encontrar contenido, pero nunca estaría expuesto al contenido que realmente
desea ver, pero no sabía que
quería buscarlo, y los demandantes tienen Traté de diferenciar entre los resultados de búsqueda y otros
resultados generados algorítmicamente, pero en realidad no existe una forma de principios para distinguir entre los
resultados que se ordenan cuando busca algo activamente y los resultados que se le presentan debido a un algoritmo de recomendación, y a la gente le encanta odiar
algoritmos, incluido yo mismo, pero la verdad es que si no hubiera algoritmos que
nos ayudaran a clasificar todo el contenido en las
plataformas de redes sociales, sería imposible leerlo, y luego, además,
está el tema del material.
apoyo relacionado para un reclamo bajo la Ley Anti-Terrorismo. Ahora, el escrito del Departamento de Justicia en apoyo de los demandantes argumenta que las recomendaciones algorítmicas transmiten el mensaje implícito del sitio web de que los usuarios encontrarán la
información relevante, y eso hace que el sitio web sea responsable porque actúa como el mismo ISIS. Ahora, los demandantes no reclamaron esto en su demanda original. En cambio, se centraron en cómo las
recomendaciones de YouTube amplifican el discurso de ISIS, haciéndolo más visible para más usuarios, pero el gobierno de EE. UU.
insta a la Corte Suprema a adoptar una lectura restringida de la Sección 230 que permitiría determinar que Google
contribuyó materialmente al contenido al haciéndolo coincidir con las preferencias del usuario. Una vez más, básicamente, el
Departamento de Justicia, así como los demandantes,
abogan por un estándar que si un sitio web promueve contenido, utiliza un algoritmo o
recomienda contenido a los usuarios, ese sitio web se vuelve responsable de todo el discurso contenido
en esa recomendación. ¿ Qué sucede cuando los sitios web son responsables? Bueno, ¿recuerdas que mencioné que esto ya había sucedido antes? Bueno, lo tiene.
En 2018, el entonces presidente Trump
promulgó dos proyectos de ley que facilitan la lucha contra el
tráfico sexual en línea. Esa fue la Ley de lucha contra el tráfico sexual en línea
y la Ley para detener a los traficantes sexuales, también conocidas como FOSTA y SESTA, y esas dos leyes crearon una excepción a la regla de puerto seguro de la Sección 230 al establecer que los sitios web podrían
ser legalmente responsables si terceros publicaron
anuncios para prostitución en sus plataformas. La ley penaliza los sitios web que, entre comillas, "promuevan o faciliten la prostitución", y aunque esto incluye sitios
que promuevan el trabajo sexual ilegal, también permite que la policía
investigue cualquier sitio que ayude, facilite o apoye el tráfico sexual a sabiendas.
Este lenguaje se puede leer para incluir sitios con contenido que es legal, como servicios de acompañantes,
anuncios personales y pornografía. Ahora, los críticos de FOSTA
y SESTA advirtieron que las nuevas leyes eran demasiado amplias y terminarían
eliminando el contenido de Internet que no tiene nada que ver
con el tráfico sexual, y resultaron ser correctas. Si un tercero publica contenido que está cubierto por FOSTA o
SESTA, y el sitio web no evita que se publique ese contenido, ese sitio web puede ser demandado, y eso fue simplemente demasiado riesgo legal para varios sitios web. – Deberías haber ido por la cabeza. – ¡No! – Craigslist cerró
toda su sección personal, Tumblr prohibió todo el contenido para adultos y Reddit eliminó varios subreddits, y otros sitios web simplemente
cerraron por completo. Entonces, podría preguntarse, ¿
algo de esto ayudó con el enjuiciamiento del tráfico sexual? Bueno, en 2021, la
Oficina de Responsabilidad del Gobierno de los EE. UU. publicó un informe sobre los primeros tres años de FOSTA y SESTA y encontró que, cito, "durante tres años, el Departamento de Justicia
presentó solo un caso bajo sus reglas contra la promoción o el desprecio imprudente del
sexo tráfico”.
Entonces, irónicamente, esto proporcionó esencialmente el experimento natural perfecto
para descubrir qué sucede cuando los sitios web son responsables del contenido del habla de sus usuarios. Ocurrirá una de dos cosas. O el sitio web cierra esa sección o cierra todo el departamento, o el sitio web emplea
un ejército de moderadores para eliminar cualquier cosa que sea
remotamente ofensiva. Básicamente, o vives en un mundo donde un sitio web permite todo, estafas, spam, pornografía, ultraviolencia, todo lo que
puedas imaginar y probablemente no quieras
ver en tu vida cotidiana, o vives en un mundo donde emplean
moderadores extremadamente caros que evitan cualquier cosa que
pueda ser ofensiva y eso, por supuesto, supone que un sitio web puede permitirse el lujo de
contratar a esos moderadores. Por lo tanto, hay quienes
quieren ver la Sección 230 modificada o eliminada
por completo, y han argumentado que estos servicios en línea
actúan como desarrolladores de contenido.
Ahora, el argumento oral
frente a la Corte Suprema es la próxima semana, y estoy poniendo mi dinero
donde está mi boca en este caso. Presenté un escrito en la Corte Suprema junto con Doctor Mike,
Mythical Entertainment, Chubbyemu, Tim Schmoyer
y Authors Alliance, y un montón de otros creadores. Presentamos un escrito de amicus curiae explicando las posibles consecuencias nefastas de una decisión realmente mala sobre esto. Entonces, veremos cómo va,
pero, mientras tanto, probablemente solo estaré estresado por comer al final de Internet, a menos que use el patrocinador de hoy, Factor 75, porque Factor hace que
alcanzar sus objetivos nutricionales sea más fácil que nunca. entregando comidas
frescas, nunca congeladas, aprobadas por un dietista
directamente a su puerta, y las comidas están completamente listas para comer. Su equipo de
chefs gourmet crea cada comida utilizando ingredientes con integridad para ayudarlo a sentirse lo mejor posible durante todo el día, y puedo decirle por experiencia que realmente son extremadamente deliciosos. Factor apoya una
alimentación saludable simplificada.
Sus menús se actualizan semanalmente
con 34 opciones diferentes. Elija sus comidas favoritas
o deje que Factor elabore el pedido en función de sus
preferencias de sabor y su historial de comidas. Factor elimina las conjeturas de la compra de comestibles y la preparación de comidas, ahorrándole tiempo y
energía para otras cosas. Sus comidas preparadas sin complicaciones aseguran que siempre tengas
algo nutritivo a mano cuando no tienes tiempo para
pensar en preparar una comida y, a veces, solo
quiero una comida buena y saludable sin tener que cocinar o, obviamente, comprar los ingredientes y las comidas de Factor llegan preparadas y listas para comer en solo dos minutos, y siempre puedo aumentar mis comidas si necesito energía extra
después de un largo día de abogados. Por lo tanto, pruebe Factor
dirigiéndose a factor75.com y use el código "legaleagle50" para obtener un 50 % de descuento en su primera caja de Factor, o simplemente haga clic en el enlace
que está en la pantalla ahora mismo o abajo en la descripción, y use el código "legaleagle50" para obtener un 50 % de descuento en su primer cuadro de Factor, y hacer clic en ese enlace
realmente ayuda a este canal y, después de eso, haga clic
en este cuadro aquí para obtener más LegalEagle, o lo
veré en la corte.