U bent hier

Rechten

Wat als Section 230 nooit had bestaan? #itlawWhatIf

IusMentis - 19 min 29 sec geleden

jambulboy / Pixabay

Deze en volgende week ben ik met vakantie. Daarom de komende dagen eens een bijzondere terugblik naar het internetrecht.

De zesentwintig woorden die het internet hebben gemaakt, zo wordt Section 230 van de Communications Decency Act wel genoemd. Dit artikel zegt kortweg dat platforms zoals Facebook (maar ook webhostingbedrijven) niet aansprakelijk zijn voor wat hun gebruikers plaatsen. Dat gaat een stapje verder dan bij ons in Europa, waar dat ook de basisregel is maar

De CDA was een controversiële wet. Al bij invoering in 1996 was er veel kritiek op haar “obscenity” bepalingen: het was een ieder verboden om “patently obscene” materiaal via een netwerk te verspreiden als men wist dat minderjarigen het zouden kunnen lezen. Een van de vele parental scares in die periode, zullen we maar zeggen. Als onderdeel van de discussie om deze wet door het parlement te krijgen, werd section 230 ingevoerd met haar bescherming van tussenpersonen.

Enkele jaren later besliste de Supreme Court dat die obscenity-bepalingen in strijd waren met artikel 1 van de Amerikaanse Grondwet. Die term was zo breed dat er heel wat legale speech onder kon vallen, niet alleen pornografie en uitsluitend aanstootgevende inhoud. Section 230 bleef bestaan, want dat betrof een ander onderdeel van de wet.

Wat nu als section 230 er nooit was geweest, of samen met de obscenity-provisions ten onder was gegaan?

Dan waren we allereerst teruggevallen op de common law regels die in die tijd in ontwikkeling waren bij de diverse rechtbanken. Met name in New York was het interessant in 1996: wie helemaal niets deed (“anything goes”, zeg maar de pure hoster) was nergens voor aansprakelijk, maar wie zich ook maar met de komma’s bemoeide die was volledig redactioneel aansprakelijk alsof hij zelf de inhoud had geplaatst.

Niet dat dat betekende dat iedereen elkaar elke dag aanklaagde, zo erg was het zelfs in de VS niet. Maar we hadden wel véél beperktere ruimte gehad voor user generated content. Ik voorzie dat het Compuserve-model populair was geweest: gemodereerde chats en forums op allerlei onderwerpen, onderworpen aan uitgebreide terms of service (uitgevonden door Compuserve) en weinig ruimte om zelf eigen dingen te beginnen.

In Europa hebben we zoals gezegd sinds 2000 vergelijkbare wetgeving, op basis van een Richtlijn uit dat jaar. Het essentiële verschil is dat onze wet weliswaar zegt dat je niet aansprakelijk bent, maar ook dat je in moet grijpen op klachten. Deze notice/takedown constructie geldt niet alleen voor auteursrecht (zoals in de VS, sinds de DMCA) maar voor alle soorten onrechtmatige inhoud: ook smaad, privacyschending, tips voor computervredebreuk en ga zo maar door.

De oorspronkelijke plannen vermeldden niets over aansprakelijkheid van tussenpersonen, maar er zal ongetwijfeld goed gekeken zijn naar de Amerikaanse regels. Als er niet zo’n Section 230 was geweest, was men denk ik nog steeds uitgekomen bij een notice/takedown constructie, maar zeker is dat niet.

Hadden de Amerikanen dan weer onze regels gekopieerd? Die kans is nihil. Allereerst omdat not invented here ook bij wetgevers daar zwaar weegt, maar ten tweede omdat takedown bij alle soorten klachten al veel sneller in strijd is met het first amendment. Je mag in de VS véél meer zeggen dan elders, en een klachtprocedure bij je uitgever/hoster had dat recht dan vrij snel doorkruist.

Wat denken jullie dat er zou zijn gebeurd in dit scenario?

Arnoud

 

 

Het bericht Wat als Section 230 nooit had bestaan? #itlawWhatIf verscheen eerst op Ius Mentis.

EFF Sues U.S. Postal Service For Records About Covert Social Media Spying Program

Service Looked Through People’s Posts Prior to Street Protests

Washington D.C.—The Electronic Frontier Foundation (EFF) filed a Freedom of Information Act (FOIA) lawsuit against the U.S. Postal Service and its inspection agency seeking records about a covert program to secretly comb through online posts of social media users before street protests, raising concerns about chilling the privacy and expressive activity of internet users.

Under an initiative called Internet Covert Operations Program, analysts at the U.S. Postal Inspection Service (USPIS), the Postal Service’s law enforcement arm, sorted through massive amounts of data created by social media users to surveil what they were saying and sharing, according to media reports. Internet users’ posts on Facebook, Twitter, Parler, and Telegraph were likely swept up in the surveillance program.

USPIS has not disclosed details about the program or any records responding to EFF’s FOIA request asking for information about the creation and operation of the surveillance initiative. In addition to those records, EFF is also seeking records on the program’s policies and analysis of the information collected, and communications with other federal agencies, including the Department of Homeland Security (DHS), about the use of social media content gathered under the program.

“We’re filing this FOIA lawsuit to shine a light on why and how the Postal Service is monitoring online speech. This lawsuit aims to protect the right to protest,” said Houston Davidson, EFF public interest legal fellow. “The government has never explained the legal justifications for this surveillance. We’re asking a court to order the USPIS to disclose details about this speech-monitoring program, which threatens constitutional guarantees of free expression and privacy.”

Media reports revealed that a government bulletin dated March 16 was distributed across DHS’s state-run security threat centers, alerting law enforcement agencies that USPIS analysts monitored “significant activity regarding planned protests occurring internationally and domestically on March 20, 2021.” Protests around the country were planned for that day, and locations and times were being shared on Parler, Telegram, Twitter, and Facebook, the bulletin said.

“Monitoring and gathering people’s social media activity chills and suppresses free expression,” said Aaron Mackey, EFF senior staff attorney. “People self-censor when they think their speech is being monitored and could be used to target them. A government effort to scour people’s social media accounts is a threat to our civil liberties.”

For the complaint:
https://www.eff.org/document/eff-v-usps-complaint

For more on this case:
https://www.eff.org/cases/eff-v-usps-social-media-monitoring-icop

For more on social media surveillance:
https://www.eff.org/issues/social-media-surveilance

Contact:  HoustonDavidsonLegal Fellowhouston@eff.org AaronMackeySenior Staff Attorneyamackey@eff.org
Categorieën: Openbaarheid, Privacy, Rechten

Minister maakt goed begin met wet tegen doxing

Bits of Freedom (BOF) - 27 juli 2021 - 1:13pm

De wonderen zijn de wereld nog niet uit: Bits of Freedom begint haar reactie op het concept van een wetsvoorstel van de minister van Veiligheid en Justitie met een welverdiend compliment aan het ministerie.

De minister deed vorige week een voorstel om het gebruik van persoonsgegevens om te intimideren strafbaar te maken. Dat vinden we een hele goede zet. Het gebeurt veel te vaak dat iemand monddood wordt gemaakt doordat een kwaadwillende bewust diens gegevens verspreid, met soms een begeleidende bedreigende oproep. En op die manier bedreigen is niet altijd strafbaar. Goed dus, dat de minister daar nu met een wet iets aan wil doen. En nog beter dat die wet ook nog eens scherp genoeg geformuleerd is om niet een groot risico voor de vrijheid van meningsuiting te zijn.

Wat bedoelt de minister precies?

In onze reactie vragen we de minister vooral om wat dingen helderder uit te leggen. Met het intimideren wordt "het een ander vrees aanjagen" bedoelt. Het gaat daarbij, volgens de toelichting, om “een emotie, die ieder normaal mens onder vergelijkbare omstandigheden ook zou hebben.” Wij vragen ons af wat daar precies onder valt. Valt bijvoorbeeld aankaarten dat de directeur van Shell privé een eiland zou hebben gekocht in een land waar dat bedrijf is veroordeeld voor vervuiling ook onder “vrees aanjagen”? Is het hebben van angst dat er activisten met bootjes rondom het eiland varen zo’n emotie? Is het vrezen van publicitaire schade een reden voor strafbaarheid van de uiting?

De minister moet ook iets doen met al die publiek toegankelijke bronnen met persoonsgegevens.

Met het voorstel van de minister zou het ook strafbaar zijn om zo te intimideren dat die zijn werk niet meer kan doen. Ook hier zijn we bang dat dit te breed kan worden uitgelegd. In de toelichting noemt de minister het verspreiden van persoonsgegevens van undercoveragenten. Dat gebeurt dan om die agenten herkenbaar te maken waardoor zij dat werk niet meer goed kunnen doen. Daar is misschien iets voor te zeggen in de context van een groot opsporingsonderzoek naar criminele activiteiten. Maar als undercoveragenten deelnemen aan een demonstratie voor, bijvoorbeeld, een beter milieu of gelijke rechten voor mensen met kleur, dan is zo’n strafbaarstelling wél problematisch.

Lees hier ons advies aan de minister

Onderliggende problemen blijven liggen

Ook wijzen we de minister erop dat het strafbaar maken van doxing niet alle onderliggende problemen oplost. Het is belangrijk dat de minister naast dit wetsvoorstel ook iets doet met het feit dat persoonsgegevens eenvoudig beschikbaar zijn in publiek toegankelijke bronnen. Neem bijvoorbeeld de registers van het Kadaster en de Kamer van Koophandel. In beide gevallen kunnen zulke gegevens bijvoorbeeld in combinatie met andere gegevens uit andere bronnen, gebruikt worden voor intimiderende doeleinden. Het beperken van de beschikbaarheid van dit soort gegevens draagt bij aan de beperking van het mogelijke misbruik ervan.

Met het intimideren wordt "het een andere vrees aanjagen" bedoelt. Wij vragen ons af wat daar precies onder valt.

De minister merkt verder terecht op dat er in het huidige maatschappelijke klimaat sprake is van een verharding van uitingen op het internet. Dat wordt volgens ons mede veroorzaakt door onze afhankelijkheid een beperkt aantal platforms van een nog beperkter aantal Amerikaanse technologiebedrijven. De dominantie van Facebook, Twitter en enkele andere partijen in het online publieke debat, maakt dat zij grote invloed hebben op de inhoud van ons publieke debat.

Vind ook jij uitingsvrijheid én privacy belangrijk, steun ons dan!

Maar misschien nog relevanter is dat deze platforms daar bovenop ook nog eens de vorm van het gesprek bepalen, door allerlei keuzes in het ontwerp van het platform. De berichtjes op Twitter zijn door hun beperkte lengte en de retweet-counter eronder, weinig uitnodigend om een genuanceerd verhaal te vertellen. Het gevolg is dat radicaler berichtjes makkelijk viral kunnen gaan, terwijl voor een genuanceerder verhaal geen plaats is.

Als je doxing écht wilt aanpakken, moet je ook iets doen met de macht van de poortwachters van onze publieke debat online.

Categorieën: Openbaarheid, Privacy, Rechten

Wat als IBM haar softwaredivisie nooit had ontbundeld? #itlawWhatIf

IusMentis - 26 juli 2021 - 8:11am

jambulboy / Pixabay

Deze en volgende week ben ik met vakantie. Daarom de komende dagen eens een bijzondere terugblik naar het internetrecht.

In oktober vorig jaar maakte IBM bekend haar services-divisie af te splitsen, zodat IBM als een pure cloudservicedienstverlener verder kon gaan. Dit is opmerkelijk, omdat IBM juist een van de grootste dienstverleners is (of was) op het gebied van enterprise IT. En het deed me denken aan een oude, vrij fundamentele ontwikkeling. In 1969 was het namelijk eveneens IBM die haar hardware en softwaredivisies ontbundelde. Maar wat nu als ze dat niet hadden gedaan?

Tot 1969 was de IT markt eigenlijk vooral een hardwaremarkt. Bedrijven kochten grote dikke kasten in het kader van automatisering, en kregen de software er vaak gratis bij. Er waren ook hele actieve groepjes gebruikers die software onderhielden of zelfs verbeterden. Wat niemand erg vond, want daar kochten alleen maar meer mensen hardware van. (En je had niets aan de software zonder die hardware, die je alleen bij de leverancier kon kopen.)

De ontbundeling door IBM was het gevolg van een aanklacht van het ministerie van Justitie: al die gratis software die zo ontstond (en waarbij men afhankelijk was van IBM) was een inbreuk op de vrije mededinging, IBM speelt vals. De aanklacht werd jaren later ingetrokken, maar IBM had zich al bedacht en een aparte markt voor software gecreëerd. (Andere bronnen leggen de overwegingen voor de ontbundeling eerder bij de kosten van software.)

Wat nu als ze dat niet hadden gedaan? Stel die aanklacht was er nooit gekomen, en IBM kon omgaan met de kosten van marktspecifieke software. Dan was het dus véél lastiger geweest voor concurrenten om met enkel software de markt te betreden (dat is dus het antitrust-argument) en hadden we naar alle waarschijnlijkheid ook niet snel algemene personal computers gezien. Juridisch gezien: het had bevestigd dat bundelen van hardware en software géén misbruik van je machtspositie is en had dus leveranciers grote macht over die software gegeven (let op: dit was pre-auteursrecht op software).

De meest logische extrapolatie zou zijn dat IBM zelf was gaan inzetten op kleinere computers, omdat de grote mainframe markt (waar dit met name speelde) al aan zijn eind leek te zijn. IBM had dan het model van “software er gratis bij” gekopieerd, zodat ook die kleinere computers meer op slot hadden gezeten. Concurrenten hadden dan met eigen hardware moeten komen, wat natuurlijk velen enkele decennia later deden: de Commodore, Amiga en natuurlijk de Mac. Maar die markt had dan veel later en kleiner ontstaan.

Ondertussen was er weinig behoefte geweest aan bescherming van software, dus de kans wordt een stuk kleiner dat er auteursrechtelijke bescherming komt voor computerprogramma’s. En dat had weer mooie ripple effecten gehad op zaken als open source.

Wat denken jullie dat er zou zijn gebeurd in dit scenario?

Arnoud

Het bericht Wat als IBM haar softwaredivisie nooit had ontbundeld? #itlawWhatIf verscheen eerst op Ius Mentis.

EFF, ACLU Urge Appeals Court to Revive Challenge to Los Angeles’ Collection of Scooter Location Data

Lower Court Improperly Dismissed Lawsuit Against Privacy Invasive Data Collection Practice

San Francisco—The Electronic Frontier Foundation and the ACLU of Northern and Southern California today asked a federal appeals court to reinstate a lawsuit they filed on behalf of electric scooter riders challenging the constitutionality of Los Angeles’ highly privacy-invasive collection of detailed trip data and real-time locations and routes of scooters used by thousands of residents each day.

The Los Angeles Department of Transportation (LADOT) collects from operators of dockless vehicles like Lyft, Bird, and Lime information about every single scooter trip taken within city limits. It uses software it developed to gather location data through Global Positioning System (GPS) trackers on scooters. The system doesn’t capture the identity of riders directly, but collects with precision riders’ location, routes, and destinations to within a few feet, which can easily be used to reveal the identities of riders.

A lower court erred in dismissing the case, EFF and the ACLU said in a brief filed today in the U.S. Circuit Court of Appeals for the Ninth Circuit. The court incorrectly determined that the practice, unprecedented in both its invasiveness and scope, didn’t violate the Fourth Amendment. The court also abused its discretion, failing to exercise its duty to credit the plaintiff’s allegations as true, by dismissing the case without allowing the riders to amend the lawsuit to fix defects in the original complaint, as federal rules require.

“Location data can reveal detailed, sensitive, and private information about riders, such as where they live, who they work for, who their friends are, and when they visit a doctor or attend political demonstrations,” said EFF Surveillance Litigation Director Jennifer Lynch. “The lower court turned a blind eye to Fourth Amendment principles. And it ignored Supreme Court rulings establishing that, even when location data like scooter riders’ GPS coordinates are automatically transmitted to operators, riders are still entitled to privacy over the information because of the sensitivity of location data.”

The city has never presented a justification for this dragnet collection of location data, including in this case, and has said it’s an “experiment” to develop policies for motorized scooter use. Yet the lower court decided on its own that the city needs the data and disregarded plaintiff Justin Sanchez’s statements that none of Los Angeles’ potential uses for the data necessitates collection of all riders’ granular and precise location information en masse.

“LADOT’s approach to regulating scooters is to collect as much location data as possible, and to ask questions later,” said Mohammad Tajsar, senior staff attorney at the ACLU of Southern California. “Instead of risking the civil rights of riders with this data grab, LADOT should get back to the basics: smart city planning, expanding poor and working people’s access to affordable transit, and tough regulation on the private sector.”

The lower court also incorrectly dismissed Sanchez’s claims that the data collection violates the California Communications Privacy Act (CalECPA), which prohibits the government from accessing electronic communications information without a warrant or other legal process. The court’s mangled and erroneous interpretation of CalECPA—that only courts that have issued or are in the process of issuing a warrant can decide whether the law is being violated—would, if allowed to stand, severely limit the ability of people subjected to warrantless collection of their data to ever sue the government.

“The Ninth Circuit should overturn dismissal of this case because the lower court made numerous errors in its handling of the lawsuit,” said Lynch. “The plaintiffs should be allowed to file an amended complaint and have a jury decide whether the city is violating riders’ privacy rights.”

For the brief:
https://www.eff.org/document/sanchez-v-ladot-opening-appellage-briefpdf

Contact:  JenniferLynchSurveillance Litigation Directorjlynch@eff.org
Categorieën: Openbaarheid, Privacy, Rechten

Data Brokers are the Problem

Why should you care about data brokers? Reporting this week about a Substack publication outing a priest with location data from Grindr shows once again how easy it is for anyone to take advantage of data brokers’ stores to cause real harm.

This is not the first time Grindr has been in the spotlight for sharing user information with third-party data brokers. The Norwegian Consumer Council singled it out in its 2020 "Out of Control" report, before the Norwegian Data Protection Authority fined Grindr earlier this year. At the time, it specifically warning that the app’s data-mining practices could put users at serious risk in places where homosexuality is illegal.

But Grindr is just one of countless apps engaging in this exact kind of data sharing. The real problem is the many data brokers and ad tech companies that amass and sell this sensitive data without anything resembling real users’ consent.

Apps and data brokers claim they are only sharing so-called “anonymized” data. But that’s simply not possible. Data brokers sell rich profiles with more than enough information to link sensitive data to real people, even if the brokers don’t include a legal name. In particular, there’s no such thing as “anonymous” location data. Data points like one’s home or workplace are identifiers themselves, and a malicious observer can connect movements to these and other destinations. In this case, that includes gay bars and private residents.

Another piece of the puzzle is the ad ID, another so-called “anonymous" label that identifies a device. Apps share ad IDs with third parties, and an entire industry of “identity resolution” companies can readily link ad IDs to real people at scale.

All of this underlines just how harmful a collection of mundane-seeming data points can become in the wrong hands. We’ve said it before and we’ll say it again: metadata matters.

That’s why the U.S. needs comprehensive data privacy regulation more than ever. This kind of abuse is not inevitable, and it must not become the norm.

Categorieën: Openbaarheid, Privacy, Rechten

Man aangehouden voor stiekem opnemen rechtszaak

IusMentis - 23 juli 2021 - 8:32am

ds30 / Pixabay

Tijdens een zitting bij het Gerechtshof in Leeuwarden is dinsdagochtend een 71-jarige man uit Assen aangehouden, las ik in de Leeuwarder Courant (spiegel). Hij maakte daar heimelijk geluidsnames van een zitting, en wel ten behoeve van het slachtoffer dat thuis was. Het Hof noemt het een “unieke situatie”; de verdachte en zijn advocaat hebben allebei aangifte gedaan. Ik moet zeggen, dit voelt erg raar aan.

Een medewerker van de parketpolitie zag tijdens de hogerberoepzitting van een diefstalzaak dat een man op de publieke tribune bezig was met opnames maken op zijn iPhone. Dat is verboden onder de huisregels van de rechtbanken. De reden daarvoor is niet dat rechters heel ouderwets zijn, maar omdat kort gezegd het de waarheidsvinding niet ten goede komt.

De Raad voor de Rechtspraak publiceert regelmatig motivaties waarom zij pers of opnames niet toestaat. Een korte selectie:

  • “De rechtbank heeft aanwijzingen dat de opnames verdachtes vrijheid om open en eerlijk te verklaren zeer waarschijnlijk belemmert.”
  • “Vanwege veiligheidsrisico’s heeft de voorzitter in deze specifieke zaak het verzoek van het Openbaar Ministerie ingewilligd en daarom mogen de officieren van justitie niet in beeld worden gebracht. “
  • “Dat bezwaar honoreert de voorzitter gelet op de zorgen van de verdediging over stigmatisering of negatieve beeldvorming bij die media-aandacht.”
  • “Het verzoekschrift dat tijdens de zitting besproken wordt, gaat over het houden van een getuigenverhoor in een in veel opzichten gevoelige kwestie waarmee grote financiële en andere belangen gemoeid zijn. Het is van belang om die bespreking in alle rust te kunnen laten plaatsvinden. “
Voor mij is de kern dat het de voortgang van de rechtszaak verstoort. Als mensen weten dat ze opgenomen worden, leidt dat ze af. Misschien willen ze dan niets meer zeggen, misschien worden ze boos omdat ze zich verspreken en dat nu opgenomen is. En misschien zijn ze bang dat de opname verkeerd in de media komt zodat ze (hoewel ze onschuldig zijn) als grote crimineel afgeschilderd gaan worden.

Bij een geheime opname zou dat niet moeten spelen, je weet per definitie niet dat dat gebeurt. Maar die risico’s van misbruik en dergelijke spelen dan net zo goed, daarom is het stiekem afluisteren en opnemen van gesprekken strafbaar gesteld (art. 139a en 139b Strafrecht).

Mijn eerste gedachte was wel: hoezo is dit afluisteren, je kunt moeilijk volhouden dat je een privégesprek aan het voeren bent in een openbare rechtszitting. Maar de wet gaat verder dan alleen met een richtmicrofoon twee babbelaars op een bankje op band krijgen. Het wetsartikel is al wat ouder, bij invoering (1967) zei de minister: [Overigens] moet in het wetsontwerp het woord „afluisteren” niet worden opgevat in de beperkte zin van: „ongemerkt of heimelijk luisteren”, zoals dit in het gewone spraakgebruik wel geschiedt. Onder „afluisteren” wordt in het wetsontwerp, evenals trouwens in wetsontwerp no. 8911, verstaan elk luisteren naar een gesprek door een buitenstaander, het „beluisteren” dus. Ik zie wel hoe je “beluistert” door op de publieke tribune te zitten en dan een opname te maken.

Natuurlijk voelt het behoorlijk paradoxaal: een rechtszitting is openbaar, je mag van alles verslag doen achteraf dus hoezo ben je dan aan het “afluisteren” als je dat verslag niet maakt door meeschrijven maar door opnemen. Maar de kern is dus dat het opnemen de rechtszaak verstoort en daarom niet mag.

Arnoud

Het bericht Man aangehouden voor stiekem opnemen rechtszaak verscheen eerst op Ius Mentis.

Algorithms need managers, too

Bits of Freedom (BOF) - 23 juli 2021 - 8:02am

During my internship at Bits of Freedom, I researched the use of algorithms for detecting fake news. These are my most important findings.

Fact-checking fake news: a case study

Machine-learning algorithms are everywhere. Artificial intelligence’s (AI) reputation for outperforming human decision-making, has lead to AI being deployed in order to address all sorts of problems. From recruitment to national security management, algorithms are involved in more and more of our decision-making processes. One would almost be led to believe that algorithms can do everything better than humans, and that human judgement no longer holds crucial value.

An example of a field that makes use of algorithmic decision-making, is the detection of fake news. Traditionally, fake news would be addressed by getting experts, such as journalists, to fact-check articles. However, considering the rapid spread of fake news and the overwhelming amount of information generated in today’s society, there seems to be no other option than to automate (part of) this work. My research looks at how well algorithms perform at this task compared to how human experts perform. Put bluntly: which is the better fake news detector? Subsequently, my thesis explores if and how the dehumanization of decision-making should be advanced.

Supervised algorithm

Algorithms come in different sizes, varieties and methods. In general, they are divided into two categories: supervised and unsupervised. Supervised means that we tell the algorithm what we want it to predict and train it accordingly. Unsupervised means that we do not tell the algorithm what we want it to predict, and instead set it up to find (hidden) patterns in data itself. Our research made use of a supervised algorithm, trained on an already labelled data set consisting of fake- and true news articles, asked to predict if an article is fake or true.

Are uninterpretable results worth it?

The algorithm out-performedIt is important to consider that our algorithm was able to review over 38.647 articles, while our human experts reviewed only 18. This means that one misclassification by our human experts would heavily impact their performance. the human experts by 34%. However, our human experts' results were far more interpretable. Because our algorithm needed 400 trees, each of which had 150 options to consider, it was extremely difficult to understand how our algorithm had arrived at a particular conclusion. Furthermore, we noticed that on occasion the algorithm offered a classification despite being low in confidence about that choice. In other words: our algorithm, which should to a degree be explainable and interpretable, ended up being neither. This is not completely unsurprising, as the more data you work with, the more complex you need your algorithm to be in order to produce robust results.

Considering its structure, our algorithm should, to a degree, be explainable as well interpretable. It ended up being neither.

Thoughtful decisions

The experience with our human experts, working in duo's, was very different. Although they did not perform as well as the algorithm, it was possible to retrieve more information from them about the decision-making process. Some human experts, without being asked to do so, offered additional interpretation and explained why, according to them, articles were fake or true, and even argued why certain articles did not fit in either class. The most fascinating thing was that some of our human experts classified certain articles as both fake and true (again: not the original task), as they did not believe that the articles were a perfect fit for either category.

Furthermore, within the duo's not all articles were classified the same. This emphasises the diversity of knowledge humans have and how it can affect decision-making. This diversity, one could argue, could lead to indecisiveness, a problem that did not seem to arise for our algorithm. However, one could ask oneself which is more important: being indecisive but eventually offering a nuanced decision, or being fast but unable to offer an explainable and/or interpretable decision.

Which is more important: being indecisive but eventually offering a nuanced decision, or being fast but unable to offer an explainable and/or interpretable decision?

Stop using algorithms to take decisions we cannot interrogate

When compared to algorithms, humans are far more divergent in their thinking. This is because humans possess tacit and implicit knowledge of the world, which is difficult to express, extract, or codify in algorithms. Furthermore, one could argue that even if algorithms were explainable and interpretable, they still might not be suitable tools for governance. In our legal system, rules and regulations come to life when applied to real-life problems. In light of specific facts and circumstances, and guided by a normative framework informed by public values and interests, what on paper seems to be a rather fixed set of rules, suddenly becomes pliable, adaptable. This interaction between a "static" set of rules and an evolving normative framework, is partly what makes our legal system so robust. The set of rules that makes up an algorithm, on the other hand, is far more unmovable, threatening to result in a tool that does not allow itself or its (future) applicability to be questioned. This attitude might extend to humans who, fueled by their overestimation of algorithms, cease to assess the tool and unquestioningly implement the decisions it prescribes. It is therefore of utmost importance that we stop mapping algorithms on the scale of human intelligence and stop using them to take decisions we cannot interrogate.

Managing algorithms

Considering that, for now, we have already turned our world over to algorithms, we should think of ways to understand them better and, most importantly, manage what we have built and done. The quest for explainability and interpretability is an essential field of study, as witnessed by the European Commission’s proposed AI Act. Although the Commission claims to set up a human-centric framework that puts people first, the proposal features fundamental gaps with regards to accountability. Our research leads to the following recommendations:

  • Explainable and interpretable AI should be the norm, and research in this field should be prioritized so that we can move from a ‘black box’- to a ‘white box’ approach.
  • A human-in-the-loop approach would provide for human interaction in every step of the decision-making process. The humans in the loop should be diverse with regards to their knowledge, views and experiences. Furthermore, in light of epistemic and normative concerns, algorithms should never be the final arbiters in decision-making processes.
  • Accountability, through the ability to interrogate decisions, should be critical to algorithmic decision-making and facilitated by a national and/or European legal framework.

‘Let the algorithm decide’ is the wrong paradigm, as it puts human dignity at stake. Before we commit our societies entirely to algorithms, we need to think more carefully about ethical frameworks, explainability and transparency. Because algorithms need managers, too.

Decision-making in the age of algorithm. Comparing Random Forest Classifier with human evaluation on fake-news detection

Categorieën: Openbaarheid, Privacy, Rechten

Council of Europe’s Actions Belie its Pledges to Involve Civil Society in Development of Cross Border Police Powers Treaty

As the Council of Europe’s flawed cross border surveillance treaty moves through its final phases of approval, time is running out to ensure cross-border investigations occur with robust privacy and human rights safeguards in place. The innocuously named “Second Additional Protocol” to the Council of Europe’s (CoE) Cybercrime Convention seeks to set a new standard for law enforcement investigations—including those seeking access to user data—that cross international boundaries, and would grant a range of new international police powers. 

But the treaty’s drafting process has been deeply flawed, with civil society groups, defense attorneys, and even data protection regulators largely sidelined. We are hoping that CoE's Parliamentary Committee (PACE), which is next in line to review the draft Protocol, will give us the opportunity to present and take our privacy and human rights concerns seriously as it formulates its opinion and recommendations before the CoE’s final body of approval, the Council of Ministers, decides the Protocol’s fate. According to the Terms of Reference for the preparation of the Draft Protocol, the Council of Ministers may consider inviting parties “other than member States of the Council of Europe to participate in this examination.”

The CoE relies on committees to generate the core draft of treaty texts. In this instance, the CoE’s Cybercrime Committee (T-CY) Plenary negotiated and drafted the Protocol’s text with the assistance of a drafting group consisting of representatives of State Parties. The process, however, has been fraught with problems. To begin with, T-CY’s Terms of Reference for the drafting process drove a lengthy, non-inclusive procedure that relied on closed sessions (​​Article 4.3 T-CY Rules of Procedures). While the Terms of Reference allow the T-CY to invite individual subject matter experts on an ad hoc basis, key voices such as data protection authorities, civil society experts, and criminal defense lawyers were mostly sidelined. Instead, the process has been largely commandeered by law enforcement, prosecutors and public safety officials (see here, and here). 

Earlier in the process, in April 2018, EFF, CIPPIC, EDRI and 90 civil society organizations from across the globe requested the COE Secretariat General provide more transparency and meaningful civil society participation as the treaty was being negotiated and drafted—and not just during the CoE’s annual and somewhat exclusive Octopus Conferences. However, since T-CY began its consultation process in July 2018, input from external stakeholders has been limited to Octopus Conference participation and some written comments. Civil society organizations were not included in the plenary groups and subgroups where text development actually occurs, nor was our input meaningfully incorporated. 

Compounding matters, the T-CY’s final online consultation, where the near final draft text of the Protocol was first presented to external stakeholders, only provided a 2.5 week window for input. The draft text included many new and complex provisions, including the Protocol’s core privacy safeguards, but excluded key elements such as the explanatory text that would normally accompany these safeguards. As was flagged by civil society, privacy regulators, and even by the CoE’s own data protection committee, two and a half weeks is not enough time to provide meaningful feedback on such a complex international treaty. More than anything, this short consultation window gave the impression that T-CY’s external consultations were truly performative in nature. 

Despite these myriad shortcomings, the Council of Ministers (CoE’ final statutory decision-making body, comprising member States’ Foreign Affairs Ministers) responded to our process concerns arguing that external stakeholders had been consulted during the Protocol’s drafting process. Even more oddly, the Council of Ministers’ justified the demonstrably curtailed final consultation period by invoking its desire to complete the Protocol on the 20th anniversary of the CoE’s Budapest Cybercrime Convention (that is, by this November 2021).

With great respect, we kindly disagree with Ministers’ response. If T-CY wished to meet its November 2021 deadline, it had many options open to it. For instance, it could have included external stakeholders from civil society and from privacy regulators in its drafting process, as it had been urged to do on multiple occasions. 

More importantly, this is a complex treaty with wide ranging implications for privacy and human rights in countries across the world. It is important to get it right, and ensure that concerns from civil society and privacy regulators are taken seriously and directly incorporated into the text. Unfortunately, as the text stands, it raises many substantive problems, including the lack of systematic judicial oversight in cross-border investigations and the adoption of intrusive identification powers that pose a direct threat to online anonymity. The Protocol also undermines key data protection safeguards relating to data transfers housed in central instruments like the European Union’s Law Enforcement Directive and the General Data Protection Regulation. 

The Protocol now stands with CoE’s PACE, which will issue an opinion on the Protocol and might recommend some additional changes to its substantive elements. It will then fall to CoE’s Council of Ministers to decide whether to accept any of PACE’s recommendations and adopt the Protocol, a step which we still anticipate will occur in November. Together with CIPPICEDRI, Derechos Digitales and NGOs around the world hope that PACE takes our concerns seriously, and that the Council produces a treaty that puts privacy and human rights first. 

Categorieën: Openbaarheid, Privacy, Rechten

Video Recording of COMMUNIA Salon on the AG Opinion in case C-401/19

International Communia Association - 22 juli 2021 - 5:47pm

On Wednesday the 21st of June we held a special lunch salon on Advocate General Saugmandsgaard Øe’s Opinion in Case C-401/19, the Polish request to annul Article 17 of the CDSM directive.

Moderated by Teresa Nobre, the salon started with Paul Keller (COMMUNIA/Open Future) assessing the opinion in the context of the Commission’s stakeholder dialogue and the ongoing national implementations (from min. 03:11 to min. 12:35 in the recording). While the opinion doesn’t provide for Article 17’s annulment, it provides important clarifications on users rights safeguards against automated, preventive content blocking systems adopted by sharing services providers.

Then Martin Husovec (London School of Economics) took a closer look at the overall strategy of the AG’s opinion while dwelling on its weaknesses and strengths (from min. 14:53 to min. 25.50 in the recordings). He focused on what he described as “AG Øe’s re-interpretation of Article 17” and further analysed the safeguard mechanisms provided in the opinion. 

The final presentation came from Julia Reda (GFF) (from min. 27:50 to min. 40:00 in the recordings) who expressed her disappointment to the fact that AG Øe did not recommend the to reject Article 17. She went on to  identify  a number of  inconsistencies in the parts of the opinion that attempt to reconcile the use of upload filters with the ban on general monitoring obligations. .

The discussion was followed by a Q&A session with the participants (from min. 42:20 onwards).

Praxis-Workshop zu Urheberrecht und offenen Bildungsmaterialien: Vier Module im Angebot

iRights.info - 22 juli 2021 - 9:08am

Das iRights.Lab bietet einen vierteiligen Praxis-Workshop zu den Themen Urheberrecht und offene Bildungsmaterialien an. Der Workshop ist Teil der iRights.Lab Academy, einem neuen Angebot mit verschiedenen Kursen zu digitalem Lernen und Arbeiten.

Der Workshop „Urheberrecht im Internet“ ist darauf ausgelegt, praxisrelevantes Wissen zu vermitteln und richtet sich vorrangig an Akteur*innen aus dem Bildungs- und Wissenschaftskontext. Sowohl Lai*innen wie auch Fortgeschrittene und Profis können daran teilnehmen und sich entsprechend ihres Wissensstands und ihrer Interessen weiterbilden.

In vier Modulen erläutern die beiden Referenten Henry Steinhau und Tom Hirche die Grundlagen des Urheberrechts, führen in die Nutzung von Creative-Commons-Lizenzen und Open Educational Resources (OER) ein und geben vertiefte Hilfestellung bei der Lizenzierung und Nutzung offener Inhalte. Neben den rechtlichen Aspekten lernen die Teilnehmenden aber auch, wie sie mit digitalen Bildungsmedien, etwa in den sozialen Medien, umgehen und wie sie offene Bildungsmaterialien (OER) finden, nutzen und erstellen können.

Henry Steinhau ist ehemaliger Redakteur bei iRights.info. Er ist Experte für OER und offene Lizenzen sowie vielfach erprobt in praxisnahen Workshops. Tom Hirche ist Rechtswissenschaftler und arbeitet unter anderem zu Gemeinfreiheit im Urheberrecht. Beide arbeiten beim iRights.Lab im Bereich „Forschung & Projekte“.

Weiterführende Informationen zum Kurs „Urheberrecht im Internet“ sowie zu den beiden Referenten finden sich auf der Webseite der iRights.Lab Academy.

iRights.Lab Academy bietet weitere Workshops an

Der Kurs zum Urheberrecht ist Teil eines neuen Training-Angebots, der iRights.Lab Academy. Diese möchte Organisationen und ihre Mitarbeiter*innen mit verschiedenen Angeboten „fit und kompetent für die digitale Zukunft machen“.

So gibt es Kurse zu Diskriminierung und Algorithmen, zum digitalen Wandel der Öffentlichkeit, Daten-Management oder innovativer Verwaltung. Zudem steht ein sogenanntes „Starter-Kit“ für eine erfolgreiche Social-Media-Kommunikation zur Auswahl.

Interessierte können auch eigene Vorschläge für Workshops einreichen, sofern sie sich besondere Themen zur Vertiefung und Weiterbildung durch die iRights.Lab Academy wünschen.

Weitere Informationen, unter anderem zu Anmeldung und Durchführung der Kurse, sind auf den Webseiten der iRights.Lab Academy aufgeführt. Dort finden sich auch Kontaktmöglichkeiten per Mail und Telefon.

Das iRights.Lab ist ein unabhängiger Think Tank, der sich mit Fragen um Veränderungen in der digitalen Welt befasst und dafür Strategien und praktische Lösungen entwickelt, unter anderem für öffentliche Einrichtungen, Stiftungen, Unternehmen, Wissenschaft und Politik.

The post Praxis-Workshop zu Urheberrecht und offenen Bildungsmaterialien: Vier Module im Angebot appeared first on iRights.info - Kreativität und Urheberrecht in der digitalen Welt.

Nee, er is geen officiële bewaartermijn voor beveiligingscamerabeelden

IusMentis - 22 juli 2021 - 8:12am

De Nederlandse politie heeft bijna 280.000 camera’s opgenomen in de Camera In Beeld-database. Dat meldde Tweakers onlangs. De meeste zijn van bedrijven, zo’n 15% is van particulieren. De database is handig als start voor opsporing: je weet precies waar je met je vordering afgifte camerabeelden moet zijn als agent (er is geen live toegang op afstand natuurlijk). En dan het ergerlijke stukje: “Publieke camerabeelden worden gemiddeld langer bewaard dan wettelijk toegestaan.” Dit is niet waar en ik wou dat men ophield dit te zeggen.

De motivatie is dan dat zowel politie als Autoriteit Persoonsgegevens ergens mompelen dat 28 dagen de maximale bewaartermijn is: Het valt op dat de bewaartijd van beelden van de publieke camera’s langer is dan die van particuliere camera’s en mogelijk zelfs de wet overtreedt. Particulieren en bedrijven bewaren camerabeelden gemiddeld 21 dagen. Bij beelden van de overheid gaat het om 38 dagen. Dat is langer dan toegestaan. De politie verwijst zelf naar zijn eigen regels, waarin staat dat camerabeelden maximaal 28 dagen mogen worden bewaard. Ook de Autoriteit Persoonsgegevens noemt een maximale bewaartermijn van vier weken voor camerabeelden ‘van de politie’. Alleen, volgens mij hebben politie en AP het over bewaartermijnen van overheids-camera’s, zoals die een gemeente op zou hangen voor toezicht in de openbare ruimte. In deze database zitten vooral particuliere camera’s (van burgers, zowel bedrijven als personen dus) en dat is juridisch iets heel anders. Die particulieren moeten zich aan de AVG houden, althans als de camera ook de openbare weg filmt. En in de AVG staat géén 28 dagen, daar staat alleen “niet langer dan nodig”.

Oftewel: het hele punt is dat wie een camera ophangt die meer dan eigen terrein filmt, zélf moet gaan bedenken hoe lang zhij de beelden bewaart. Dat moet gemotiveerd en gedocumenteerd (op zijn minst in je privacyverklaring). Er is geen vuistregel of basistermijn.

Heel, heel lang geleden was er een Wet bescherming persoonsgegevens. Die vermeldde ergens dat camerabeelden maximaal 28 dagen bewaard mochten worden. Dat was alleen in de context van de registratieplicht, in die tijd moest je je camera aanmelden bij de AP anders mocht deze er niet hangen. Maar wie de beelden binnen 28 dagen wiste, hoefte de camera niet te melden. Om mij nog steeds volstrekt onverklaarbare redenen zijn hele hordes mensen dit vrijstellingsbesluit gaan lezen als een toestemming om beelden 28 dagen te bewaren. En deze waanzinnige mythe leeft nog steeds door, ik zie ook in publicaties van overigens respectabele juristen anno 2021 doodserieus nog dat vrijstellingsbesluit als bron genoemd voor een bewaartermijn.

Het enige relevante juridische document is deze publicatie van de European Data Protection Board, de samenwerkende toezichthouders. Deze werkt het AVG-kader voor cameratoezicht nader uit, en vermeldt op pagina 28: Taking into consideration the principles of Article 5 (1) (c) and (e) GDPR, namely data minimization and storage limitation, the personal data should in most cases (e.g. for the purpose of detecting vandalism) be erased, ideally automatically, after a few days. The longer the storage period set (especially when beyond 72 hours), the more argumentation for the legitimacy of the purpose and the necessity of storage has to be provided. If the controller uses video surveillance not only for monitoring its premises but also intends to store the data, the controller must assure that the storage is actually necessary in order to achieve the purpose. If so, the storage period needs to be clearly defined and individually set for each particular purpose. De kern is dus: je beelden moeten zo snel mogelijk weg, en het liefst automatisch. En dat “zo snel mogelijk” druk je eerder uit in uren dan in dagen. Als jij iets anders wil, leg maar uit waarom jij in jouw situatie met die beelden voor jouw doeleinden meer nodig hebt. En dan willen we geen dooddoeners horen dat security-randvoorwaarden dit vereisen, dat je ISO auditor in het model 28 dagen had staan (ik citeer een vraagsteller) of dat je wellicht na enkele weken oude beelden wil terugkijken om incidenten te correleren.

Oké, dat was even erg cynisch allemaal. Laat ik het eens positief doen. Hier zijn een aantal voorbeelden van motivaties voor bewaartermijnen, met het verzoek aan jullie om aanvullende tekstvoorstellen te doen!

  • Bij dit woonhuis gebruiken wij camera’s om huis, erf en bewoners te beschermen en (pogingen tot) diefstal, braak en dergelijke vast te leggen. Wij kunnen dan aangifte doen of via de verzekeraar claims indienen. De beelden bewaren wij 72 uur omdat we niet meteen alles zullen opmerken. Periodes van vakantie rekenen we hierin niet mee.
  • Onze winkel is met camera’s beveiligd en we filmen ook de winkelruit in verband met ramkraken en inbraken. De beelden worden aan het einde van elke werkdag vernietigd.
  • Op deze camperstalling wordt met cameratoezicht gewaakt over de geplaatste caravans en campers. Omdat het terrein niet dagelijks door mensen gecontroleerd wordt, worden camerabeelden bewaard tot het einde van de betreffende huurperiode. Camerabeelden waar ook de openbare weg in beeld is, worden wekelijks uitgekeken en vernietigd tenzij incidenten zichtbaar zijn.
In het bijzonder ben ik op zoek naar een voorbeeld van een ‘gewoon’ bedrijf dat camerabeelden 28 dagen mag bewaren. Omdat je normaliter incidenten sneller opmerkt dan dat (de bekraste auto, de inbraak, de vechtpartij bij de personeelsingang) zie ik het niet. De angst voor een stakeout door georganiseerde criminelen die dan eens in de week komt posten om de geldloper te bespringen zodra ze het patroon door hebben voelt een vrij specifiek risico?

Arnoud

 

Het bericht Nee, er is geen officiële bewaartermijn voor beveiligingscamerabeelden verscheen eerst op Ius Mentis.

Venmo Takes Another Step Toward Privacy

As part of a larger redesign, the payment app Venmo has discontinued its public “global” feed. That means the Venmo app will no longer show you strangers’ transactions—or show strangers your transactions—all in one place. This is a big step in the right direction. But, as the redesigned app rolls out to users over the next few weeks, it’s unclear what Venmo’s defaults will be going forward. If Venmo and parent company PayPal are taking privacy seriously, the app should make privacy the default, not just an option still buried in the settings.

Currently, all transactions and friends lists on Venmo are public by default, painting a detailed picture of who you live with, where you like to hang out, who you date, and where you do business. It doesn’t take much imagination to come up with all the ways this could cause harm to real users, and the gallery of Venmo privacy horrors is well-documented at this point.

However, Venmo apparently has no plans to make transactions private by default at this point. That would squander the opportunity it has right now to finally be responsive to the concerns of Venmo users, journalists, and advocates like EFF and Mozilla. We hope Venmo reconsiders.

There’s nothing “social” about sharing your credit card statement with your friends.

Even a seemingly positive move from “public” to “friends-only” defaults would maintain much of Venmo’s privacy-invasive status quo. That’s in large part because of Venmo’s track record of aggressively hoovering up users’ phone contacts and Facebook friends to populate their Venmo friends lists. Venmo’s installation process nudges users towards connecting their phone contacts and Facebook friends to Venmo. From there, the auto-syncing can continue silently and persistently, stuffing your Venmo friends list with people you did not affirmatively choose to connect with on the app. In some cases, there is no option to turn this auto-syncing off.  There’s nothing “social” about sharing your credit card statement with a random subset of your phone contacts and Facebook friends, and Venmo should not make that kind of disclosure the default.

It’s also unclear if Venmo will continue to offer a “public” setting now that the global feed is gone. Public settings would still expose users’ activities on their individual profile pages and on Venmo’s public API, leaving them vulnerable to the kind of targeted snooping that Venmo has become infamous for.

We were pleased to see Venmo recently take the positive step of giving users settings to hide their friends lists. Throwing out the creepy global feed is another positive step. Venmo still has time to make transactions and friends lists private by default, and we hope it makes the right choice.

If you haven’t already, change your transaction and friends list settings to private by following the steps in this post.

Categorieën: Openbaarheid, Privacy, Rechten

Update on the Dutch “Dragnet-Act”: One step forward, two steps back?

Bits of Freedom (BOF) - 21 juli 2021 - 4:54pm

After a referendum in 2018 where a majority of participants voted against the Intelligence and Security Services Act, a first Amendment Proposal has now been passed by the Dutch Senate. The slight improvements regarding oversight and safeguards that come with this Amendment are, however, put into question by the controversial recommendations of an Evaluation Committee that might significantly weaken effective oversight.

This blog was first published at about:intel. A wolf in sheep's clothing?

The millions of Dutch citizens that voted against the so-called “Dragnet-Act” – the Netherlands‘ Intelligence and Security Services Act – got two concessions: An Amendment to the Act and a promise that the Act would be evaluated early. Now, the Amendment, containing minor improvements, has passed the Dutch Senate. But the recommendations from the Evaluation Committee show that the promised evaluation was a wolf in sheep‘s clothing.

The controversial recommendations from the Evaluation Committee are being prepared by the Interior Ministry. The report of the Evaluation Committee contains fundamental proposals of which some have the potential to weaken effective oversight. The current government has ‘embraced’ the report by the Evaluation Committee and thus its recommendations. In the following debate, however, the government back-pedaled regarding what this endorsement means in actual practice. It is feared that the second proposal might harm the small improvements with regards to safeguards that were put forward in the first amendment that has just been passed.

In case you don't see the law through all the changes

Since the process is getting complicated, let me take you back in time to provide some necessary context. In March 2018, millions of Dutch citizens voted against the new Intelligence and Security Services Act, or “Dragnet-Act,” in a referendum. The Dragnet-Act, which came into force just two months later in May 2018 despite the protests, allowed for large-scale untargeted interception of communications. The message from the referendum was clear: The law must be improved. Bits of Freedom campaigned for five central demands to improve the law: 1) The dragnet needs to be removed from the Act. 2) Unevaluated datasets should not be able to fall into the hands of foreign services. 3) More safeguards are needed for the service’s ability to get real time access to databases. 4) Zero Days must be reported. 5) The ex post oversight committee CTIVD needs binding powers.

Improvements were promised, materialising in a number of policies: the Amendment Proposal that was accepted by the Dutch Senate as well as the assurance to conduct an early evaluation of the Act, two years after it came into effect. At the time, Bits of Freedom described the proposed improvements as cosmetic, because many fundamental issues of the Act that had been the subject of the referendum were not addressed.

At this moment, the situation has slightly changed. Conducting an early evaluation was a promise made by the Dutch government to address the great concerns of citizens. The outcome of the evaluation, though, resulted in recommendations from the Evaluation Committee that threaten effective oversight of the Dutch intelligence and security services AIVD and MIVD. The report contains 57 recommendations such as proposals to reduce the number of surveillance powers which require ex ante approval by the independent judicial oversight body called TIB (Investigatory Powers Committee). Another proposal is to limit the ex ante approval power of the TIB to the collection of data, instead of taking into account the subsequent data use, too. This excludes the question whether data must be immediately deleted or may be shared with foreign services from the independent approval process. Since the current government ’embraced’ the evaluation report, it will most likely introduce additional Amendments addressing these topics.

The good stuff in this proposal

As said, I see the first Amendment that just passed as a missed chance to address the fundamental objections that civil society voices raised and as a missed opportunity to improve the Act. However, there are a number of adjustments which are a small step in the right direction:

  • The ‘as targeted as possible’ requirement is included in the law. This means that the secret services must exercise their surveillance powers in such a way that they are as narrowly targeted as possible. They also must demonstrate and justify what measures they use to comply with this requirement.
  • The TIB, the oversight committee that reviews the legality of surveillance authorisation before they are implemented, can appoint deputy members. With only three TIB members to oversee two intelligence services with thousands of employees, these additional members are urgently needed.
  • When exchanging unevaluated data with foreign services, the Dutch Review Committee on the Intelligence and Security Services (CTIVD) must always be informed. Previously, that was only required if the data had been collected with the dragnet capability.
Senators did see the connection

The recommendations that have been made by the Evaluation Committee, however, would severely limit the TIB’s oversight of data collection by removing the further processing of collected data from its oversight mandate. This seems to be a contradiction to the ‘as targeted as possible’ requirement and the minor improvements to strengthen the legal safeguards when it comes to exchanging data with foreign services.

In the weeks before the Amendment was going to pass the Senate, the heads of both oversight committees published op-eds in national newspapers to draw attention to these important legal changes, which is quite exceptional. The head of the TIB even announced to resign from her post if the recommendations of the Evaluation Committee would be implemented, because she would refuse to be downgraded to a “stamping machine”. Performing a robust proportionality assessment on the collection of data would no longer be possible, if the TIB would no longer be allowed to take into account the subsequent processing of collected data.

From the discussion in the Dutch Senate, it became apparent that not only civil society voices and the oversight bodies are very concerned about the newly announced changes. The Senators asked highly relevant questions, such as how the Cabinet justifies proposing changes that would strengthen legal safeguards, while simultaneously embracing the recommendations from the Evaluation Committee to scale them down.

It would, indeed, be strange to respond in the first Amendment to the concerns expressed by citizens in the referendum, only to scale down oversight and safeguards again with the subsequent second proposal put forward by the Evaluation Committee.

Now what?

The first Amendment Act has passed the Senate, and thus the adjustments in it are now part of the legal framework. We at Bits of Freedom continue to closely monitor how the recommendations from the Evaluation Report will be handled and we are actively taking part in the discussions that these recommendations have given rise to. We will be working hard to protect our rights and freedoms in that process leading to the next Amendment. And we call on our representatives in parliament to also pay close attention to this. The recommendations to scale down TIB’s oversight mandate should not be adopted, in my view. Supervision should in fact be strengthened with binding powers for the CTIVD.

The adventure that started with a sensational referendum and a government that repeatedly downplayed its results may have become less mediagenic, but certainly no less important. So even though the topic is not discussed in talk shows, you can still count on us to stay alert.

With many thanks to Philip Westbroek for the translation of the Dutch blog.
Categorieën: Openbaarheid, Privacy, Rechten

Cheers to the Winners of EFF's 13th Annual Cyberlaw Trivia Night

On June 17th, the best legal minds in the Bay Area gathered together for a night filled with tech law trivia—but there was a twist! With in-person events still on the horizon, EFF's 13th Annual Cyberlaw Trivia Night moved to a new browser-based virtual space, custom built in Gather. This 2D environment allowed guests to interact with other participants using video, audio, and text chat, based on proximity in the room.

EFF's staff joined forces to craft the questions, pulling details from the rich canon of privacy, free speech, and intellectual property law to create four rounds of trivia for this year's seven competing teams.

Gathertown room, with six tables and booths against the walls facing a stage to the right and a bar to the top.

Our virtual Gathertown room!

As the evening began, contestants explored the virtual space and caught-up with each-other, but the time for trivia would soon be at hand! After welcoming everyone to the event, our intrepid Quiz Master Kurt Opsahl introduced our judges Cindy Cohn, Sophia Cope, and Mukund Rathi. Attendees were then asked to meet at their team's private table, allowing them to freely discuss answers without other teams being able to overhear, and so the trivia began!

Everyone got off to a great start for the General Round 1 questions, featuring answers that ranged from winged horses to Snapchat filters.

Everyone got off to a great start for the General Round 1 questions, featuring answers that ranged from winged horses to Snapchat filters. For the Intellectual Property Round 2, the questions proved more challenging, but the teams quickly rallied for the Privacy & Free Speech Round 3. With no clear winners so far, teams entered the final 4th round hoping to break away from the pack and secure 1st place.

But a clean win was not to be!

Durie Tangri's team "The Wrath of (Lina) Khan" and Fenwick's team "The NFTs: Notorious Fenwick Trivia" were still tied for first! Always prepared for such an occurrence, the teams headed into a bonus Tie-Breaker round to settle the score. Or so we thought...

After extensive deliberation, the judges arrived at their decision and announced "The Wrath of (Lina) Khan" had the closest to correct answer and were the 1st place winners, with the "The NFTs: Notorious Fenwick Trivia" coming in 2nd, and Ridder, Costa & Johnstone's team "We Invented Email" coming in 3rd. Easy, right? No!

Fenwick appealed to the judges, arguing that under Official "Price is Right" Rules, that the answer closest to correct without going over should receive the tie-breaker point: cue more extensive deliberation (lawyers). Turns out...they had a pretty good point. Motion for Reconsideration: Granted! 

But what to do when the winners had already been announced?

Two first place winners, of course! Which also meant that Ridder, Costa & Johnstone's team "We Invented Email" moved into the 2nd place spot, and Facebook's team "Whatsapp" were the new 3rd place winners! Whew!  Big congratulations to both winners, enjoy your bragging rights!

EFF's legal interns also joined in the fun, and their team name "EFF the Bluebook" followed the proud tradition of having an amazing team name, despite The Rules stating they were unable to formally compete.

Photo of the coveted Cyberlaw Quiz Cups, which are actually large glass steins, with 1st place in the center, 2nd place to the right, and 3rd place to the left.

The coveted Cyberlaw Quiz Cups that are actually glass beer steins...

EFF hosts the Cyberlaw Trivia Night to gather those in the legal community who help protect online freedom for their users. Among the many firms that continue to dedicate their time, talent, and resources to the cause, we would especially like to thank Durie Tangri LLP; Fenwick; Ridder, Costa & Johnstone LLP; and Wilson Sonsini Goodrich & Rosati LLP for sponsoring this year’s Bay Area event.

If you are an attorney working to defend civil liberties in the digital world, consider joining EFF's Cooperating Attorneys list. This network helps EFF connect people to legal assistance when we are unable to assist. Interested lawyers reading this post can go here to join the Cooperating Attorneys list.

Are you interested in attending or sponsoring an upcoming Trivia Night? Please email hannah.diaz@eff.org for more information.

Categorieën: Openbaarheid, Privacy, Rechten

‘Belgische providers moeten fup verhogen als 1 op 10 klanten deze overschrijdt’

IusMentis - 21 juli 2021 - 8:19am

De Belgische toezichthouder BIPT heeft een nieuw richtsnoer geïntroduceerd over hoe mobiele en vaste providers om moeten gaan met onbeperkt internet. Dat meldde Tweakers onlangs. Een van de maatregelen is dat providers gebruikers niet mogen blokkeren als zij over de fair use policy oftewel FUP gaan. De BIPT noemt dit een “beleid van redelijk gebruik” en doet een goede poging deze misstand aan banden te leggen.

De FUP is een bekende truc om “onbeperkt” te kunnen zeggen zonder onbeperkt aan te bieden. Al heel lang maak ik me druk over deze benadering, die vaak immers neerkomt op een harde datalimiet. Alleen dan niet uitgedrukt in een keihard getal (2GB/maand) maar als een relatief getal: u verbruikt meer dan 10x het gemiddelde deze maand, bijvoorbeeld. Dat klinkt redelijk, maar is natuurlijk ontzettend onduidelijk, én variabel bovendien. En hoezo 10?

Er zijn ook varianten die andere criteria gebruiken, zoals T-Mobile dat in 2016 het tetheren oftewel via je mobiel internetten met je laptop als ‘onredelijk’ aanmerkte. Maar in België heeft de BIPT het onderzocht en komen eigenlijk alleen problemen voor met FUPs die getalsmatige limieten hebben, en vaak ook bij overschrijding leiden tot afsluiting.

Dat laatste is natuurlijk gewoon niet wat ‘onbeperkt’ betekent, geen internet als je 500GB verbruikt hebt is met geen mogelijkheid “onbeperkt internet” maar gewoon een databundel van 500GB.

Wat ik het mooiste vind, is de basislijn die men trekt: Het beleid van “redelijk gebruik” moet een aanzienlijke proportie van de eindgebruikers de mogelijkheid geven om zonder beperkingen toegang te hebben tot het Internet. Er zijn dus in België kennelijk situaties waarin de meerderheid van de abonnees allemaal over de FUP heengegaan is en dan afgesloten werd. Nou is de redelijkheid heel redelijk maar, eh, hoe zeg je dat juridisch: kóm nou toch.

De remedie die men dus aangeeft in dit richtsnoer, is dan ook dat de FUP limieten moeten worden opgehoogd wanneer 10% van de klanten de FUP aantikt. Dat kan inderdaad een congestieprobleem zijn (want die limieten zijn er natuurlijk niet voor niets) maar dat is dan jouw probleem omdat je onbeperkt internet aanbiedt.

Verder is het essentieel dat je als provider duidelijk communiceert over wat je limieten zijn. Ik denk dat je daarmee niet ontkomt aan getalsmatige limieten, want je moet ze vóóraf aangeven en ook nog eens uitdrukken in bijvoorbeeld “dat komt overeen met 24 uur per week video streamen vanaf Netflix”.

Het BIPT “verwacht dat aanbieders van internettoegangsdiensten op de Belgische markt de eerste aanpassingen die voortvloeien uit deze Richtsnoeren uiterlijk 6 maanden na de publicatie ervan doorvoeren”, aldus de laatste zin van de richtsnoeren. Ik ben benieuwd wat de Nederlandse concullega’s gaan doen. Vooral omdat dit allemaal geen verrassing zou moeten zijn: we praten er nog net geen twintig jaar over volgens mij.

Arnoud

Het bericht ‘Belgische providers moeten fup verhogen als 1 op 10 klanten deze overschrijdt’ verscheen eerst op Ius Mentis.

Rule of law rapport: Nederlandse rechtspraak scoort hoog op onafhankelijkheid

De rechtspraak in Nederland scoort hoog op het gebied van onafhankelijkheid. Ook de inspanningen om de kwaliteit van rechtspraak te vergroten, vallen op. Dit blijkt uit het gisteren gepresenteerde tweede Rule of Law-rapport van de Europese Commissie (EC). Het rapport is samen met het eerder gepresenteerde European Justice Scoreboard een onderdeel van het ‘rule of law’-mechanisme van de EU.

Met deze rapporten wordt meer inzicht gegeven in de rechtsstaat binnen EU-lidstaten en wordt zichtbaar wat er wel en niet goed gaat. Zo worden lidstaten gestimuleerd om rechtsstaatkwesties aan te pakken. Het rapport van 2021 kijkt naar nieuwe ontwikkelingen sinds september vorig jaar, gaat dieper in op de problemen die in het vorige rapport zijn geïdentificeerd en staat stil bij de impact van de COVID-19-pandemie.

Algemene ontwikkelingen rechtspraak

Zo wordt in het rapport onder meer aandacht besteed aan anti-corruptie beleid, media en de rechtspraak. Bijna alle Europese lidstaten voeren hervormingen door in hun rechtssysteem, zo blijkt uit het onderzoek. Wel zijn er grote verschillen in omvang, vorm en voortgang. Positieve ontwikkelingen op het gebied van hervormingen van de Raden voor de rechtspraak, benoemingen van rechters en toenemende onafhankelijkheid en autonomie van het Openbaar Ministerie laten zien dat sommige lidstaten bereid zijn om de ‘rule of law’-kwesties in het eigen land aan te pakken. De invloed van de coronacrisis is volgens de Europese Commissie duidelijk zichtbaar en benadrukt de urgentie om rechtsstelsels te moderniseren, bijvoorbeeld door digitalisering.

Ondermijning rechterlijke macht

Enkele lidstaten, zoals Polen en Hongarije, zijn echter doorgegaan met het doorvoeren van hervormingen die de onafhankelijkheid van de rechterlijke macht ondermijnen. Dit gebeurt onder meer door het toekennen van grotere invloed van de uitvoerende en wetgevende macht op het functioneren van de rechterlijke macht. Het Hof van Justitie van de EU heeft in zijn vonnissen het belang van een doeltreffende rechtspraak in het beschermen en handhaven van de rechtsstaat herhaaldelijk benadrukt.

Rechtspraak Nederland

De EC merkt op dat het Nederlandse rechtssysteem nog steeds gekenmerkt wordt door een zeer hoog niveau van (waargenomen) onafhankelijkheid en inspanningen om de kwaliteit van rechtspraak te bevorderen. Hierbij noemt de commissie de ontwikkelingen ten aanzien van de wijziging van de benoemingsprocedure van rechters bij de Hoge Raad en de inwerkingtreding van de Experimentenwet die het uitrollen van pilots op grotere schaal mogelijk maakt, dit kan innovatieve ideeën binnen de rechtspraak stimuleren.

Net zoals vorig jaar merkt de commissie op dat er blijft ruimte voor verbetering van digitalisering binnen de rechtspraak, met name in het publiceren van uitspraken en het beschikbaar stellen van digitale oplossingen om procedures te starten en te volgen. Daarnaast zijn er nog steeds zorgen over de adequate financiering van de huidige rechtsbijstand. Over het algemeen blijft het rechtsstelsel efficiënt werken, hoewel de coronacrisis zorgde voor achterstanden in 2020 en 2021.

Algemeen en Nederlands hoofdstuk

Het rapport heeft een algemeen gedeelte (pdf, 0 B)over de situatie in heel de EU en specifieke landenhoofdstukken. Het hoofdstuk voor Nederland lees je hier (pdf, 0 B). het rapport komt tot stand op basis van input die landen en organisaties (ENCJ) geven. Vanuit de Nederlandse Rechtspraak waren dat de Raad voor de rechtspraak en vakbond NVvR.

Categorieën: Rechten

Rule of law rapport: Nederlandse rechtspraak scoort hoog op onafhankelijkheid

De rechtspraak in Nederland scoort hoog op het gebied van onafhankelijkheid. Ook de inspanningen om de kwaliteit van rechtspraak te vergroten, vallen op. Dit blijkt uit het gisteren gepresenteerde tweede Rule of Law-rapport van de Europese Commissie (EC). Het rapport is samen met het eerder gepresenteerde European Justice Scoreboard een onderdeel van het ‘rule of law’-mechanisme van de EU.

Met deze rapporten wordt meer inzicht gegeven in de rechtsstaat binnen EU-lidstaten en wordt zichtbaar wat er wel en niet goed gaat. Zo worden lidstaten gestimuleerd om rechtsstaatkwesties aan te pakken. Het rapport van 2021 kijkt naar nieuwe ontwikkelingen sinds september vorig jaar, gaat dieper in op de problemen die in het vorige rapport zijn geïdentificeerd en staat stil bij de impact van de COVID-19-pandemie.

Algemene ontwikkelingen rechtspraak

Zo wordt in het rapport onder meer aandacht besteed aan anti-corruptie beleid, media en de rechtspraak. Bijna alle Europese lidstaten voeren hervormingen door in hun rechtssysteem, zo blijkt uit het onderzoek. Wel zijn er grote verschillen in omvang, vorm en voortgang. Positieve ontwikkelingen op het gebied van hervormingen van de Raden voor de rechtspraak, benoemingen van rechters en toenemende onafhankelijkheid en autonomie van het Openbaar Ministerie laten zien dat sommige lidstaten bereid zijn om de ‘rule of law’-kwesties in het eigen land aan te pakken. De invloed van de coronacrisis is volgens de Europese Commissie duidelijk zichtbaar en benadrukt de urgentie om rechtsstelsels te moderniseren, bijvoorbeeld door digitalisering.

Ondermijning rechterlijke macht

Enkele lidstaten, zoals Polen en Hongarije, zijn echter doorgegaan met het doorvoeren van hervormingen die de onafhankelijkheid van de rechterlijke macht ondermijnen. Dit gebeurt onder meer door het toekennen van grotere invloed van de uitvoerende en wetgevende macht op het functioneren van de rechterlijke macht. Het Hof van Justitie van de EU heeft in zijn vonnissen het belang van een doeltreffende rechtspraak in het beschermen en handhaven van de rechtsstaat herhaaldelijk benadrukt.

Rechtspraak Nederland

De EC merkt op dat het Nederlandse rechtssysteem nog steeds gekenmerkt wordt door een zeer hoog niveau van (waargenomen) onafhankelijkheid en inspanningen om de kwaliteit van rechtspraak te bevorderen. Hierbij noemt de commissie de ontwikkelingen ten aanzien van de wijziging van de benoemingsprocedure van rechters bij de Hoge Raad en de inwerkingtreding van de Experimentenwet die het uitrollen van pilots op grotere schaal mogelijk maakt, dit kan innovatieve ideeën binnen de rechtspraak stimuleren.

Net zoals vorig jaar merkt de commissie op dat er blijft ruimte voor verbetering van digitalisering binnen de rechtspraak, met name in het publiceren van uitspraken en het beschikbaar stellen van digitale oplossingen om procedures te starten en te volgen. Daarnaast zijn er nog steeds zorgen over de adequate financiering van de huidige rechtsbijstand. Over het algemeen blijft het rechtsstelsel efficiënt werken, hoewel de coronacrisis zorgde voor achterstanden in 2020 en 2021.

Algemeen en Nederlands hoofdstuk

Het rapport heeft een algemeen gedeelte (pdf, 0 B)over de situatie in heel de EU en specifieke landenhoofdstukken. Het hoofdstuk voor Nederland lees je hier (pdf, 0 B). het rapport komt tot stand op basis van input die landen en organisaties (ENCJ) geven. Vanuit de Nederlandse Rechtspraak waren dat de Raad voor de rechtspraak en vakbond NVvR.

Categorieën: Rechten

India’s Draconian Rules for Internet Platforms Threaten User Privacy and Undermine Encryption

The Indian government’s new Intermediary Guidelines and Digital Media Ethics Code (“2021 Rules”) pose huge problems for free expression and Internet users’ privacy. They include dangerous requirements for platforms to identify the origins of messages and pre-screen content, which fundamentally breaks strong encryption for messaging tools. Though WhatsApp and others are challenging the rules in court, the 2021 Rules have already gone into effect.

Three UN Special Rapporteurs—the Rapporteurs for Freedom of Expression, Privacy, and Association—heard and in large part affirmed civil society’s criticism of the 2021 Rules, acknowledging that they did “not conform with international human rights norms.” Indeed, the Rapporteurs raised serious concerns that Rule 4 of the guidelines may compromise the right to privacy of every internet user, and called on the Indian government to carry out a detailed review of the Rules and to consult with all relevant stakeholders, including NGOs specializing in privacy and freedom of expression.

2021 Rules contain two provisions that are particularly pernicious: the Rule 4(4) Content Filtering Mandate and the Rule 4(2) Traceability Mandate.

Content Filtering Mandate

Rule 4(4) compels content filtering, requiring that providers are able to review the content of communications, which not only fundamentally breaks end-to-end encryption, but creates a system for censorship. Significant social media intermediaries (i.e. Facebook, WhatsApp, Twitter, etc.) must “endeavor to deploy technology-based measures,” including automated tools or other mechanisms, to “proactively identify information” that has been forbidden under the Rules. This cannot be done without breaking the higher-level promises of secure end-to-end encrypted messaging. 

Client-side scanning has been proposed as a way to enforce content blocking without technically breaking end-to-end encryption. That is, the user’s own device could use its knowledge of the unencrypted content to enforce restrictions by refusing to transmit, or perhaps to display, certain prohibited information, without revealing to the service provider who was attempting to communicate or view that information. That’s wrong. Client side-scanning requires a robot-spy in the room. A spy in a place where people are talking privately makes it not a private conversation. If that spy is a robot-spy like with client-side scanning, it is still a spy just as much as if it were a human spy.

As we explained last year, client-side scanning inherently breaks the higher-level promises of secure end-to-end encrypted communications. If the provider controls what's in the set of banned materials, they can test against individual statements, so a test against a set of size 1, in practice, is the same as being able to decrypt a message. And with client-side scanning, there's no way for users, researchers, or civil society to audit the contents of the banned materials list.

The Indian government frames the mandate as directed toward terrorism, obscenity, and the scourge of child sexual abuse material, but the mandate is acutally much broader. It also imposes proactive and automatic enforcement of the 2021 Rule’s Section (3)1(d)’s content takedown provisions requiring the proactive blocking of material previously held to be “information which is prohibited under any law,” including specifically laws for the protection of “the sovereignty and integrity of India; security of the State; friendly relations with foreign States; public order; decency or morality; in relation to contempt of court; defamation,” and incitement to any such act. This includes the widely criticized Unlawful Activities Prevention Act, which has reportedly been used to arrest academics, writers and poets for leading rallies and posting political messages on social media.

This broad mandate is all that is necessary to automatically suppress dissent, protest, and political activity that a government does not like, before it can even be transmitted. The Indian government's response to the Rapporteurs dismisses this concern, writing “India's democratic credentials are well recognized. The right to freedom of speech and expression is guaranteed under the Indian Constitution.”

The response misses the point. Even if a democratic state applies this incredible power to preemptively suppress expression only rarely and within the bounds of internationally recognized rights to freedom of expression, Rule(4)4 puts in place the tool kit for an authoritarian crackdown, automatically enforced not only in public discourse, but even in private messages between two people.

Part of a commitment to human rights in a democracy requires civic hygiene, refusing to create the tools of undemocratic power.

Moreover, rules like these give comfort and credence to authoritarian efforts to enlist intermediaries to assist in their crackdowns. If this Rule were available to China, word for word, it could be used to require social media companies to block images of Winnie the Pooh as it happened in China from being transmitted, even in direct “encrypted” messages. 

Automated filters also violate due process, reversing the burden of censorship. As the three UN Special Rapporteurs made clear, a “general monitoring obligation that will lead to monitoring and filtering of user-generated content at the point of upload ... would enable the blocking of content without any form of due process even before it is published, reversing the well-established presumption that States, not individuals, bear the burden of justifying restrictions on freedom of expression.” 

Traceability Mandate

The traceability provision, in Rule 4(2), requires any large social media intermediary that provides messaging services to “enable the identification of the first originator of the information on its computer resource” in response to a court order or a decryption request issued under the 2009 Decryption Rules. The Decryption Rules allow authorities to request the interception or monitoring of any decrypted information generated, transmitted, received, or stored in any computer resource..

The Indian government responded to the Rapporteur report, claiming to honor the right to privacy:

“The Government of India fully recognises and respects the right of privacy, as pronounced by the Supreme Court of India in K.S. Puttaswamy case. Privacy is the core element of an individual's existence and, in light of this, the new IT Rules seeks information only on a message that is already in circulation that resulted in an offence. 

This narrow view of Rule (4)4 is fundamentally mistaken. Implementing the Rule requires the messaging service to collect information about all messages, even before the content is deemed a problem, allowing the government to conduct surveillance with a time machine. This changes the security model and prevents implementing strong encryption that is a fundamental backstop to protecting human rights in the digital age.

The Danger to Encryption

Both the traceability and filtering mandates endanger encryption, calling for companies to know detailed information about each message that their encryption and security designs would otherwise allow users to keep private.  Strong end-to-end encryption means that only the sender and the intended recipient know the content of communications between them. Even if the provider only compares two encrypted messages to see if they match, without directly examining the content, this reduces security by allowing more opportunities to guess at the content.

It is no accident that the 2021 Rules are attacking encryption. Riana Pfefferkorn, Research Scholar at the Stanford Internet Observatory, wrote that the rules were intentionally aimed at end-to-end encryption since the government would insist on software changes to defeat encryption protections:

Speaking anonymously to The Economic Times, one government official said the new rules will force large online platforms to “control” what the government deems to be unlawful content: Under the new rules, “platforms like WhatsApp can’t give end-to-end encryption as an excuse for not removing such content,” the official said.

The 2021 Rules’ unstated requirement to break encryption goes beyond the mandate of the Information Technology (IT) Act, which authorized the 2021 Rules. India’s Centre for Internet & Society’s detailed legal and constitutional analysis of the Rules explains: “There is nothing in Section 79 of the IT Act to suggest that the legislature intended to empower the Government to mandate changes to the technical architecture of services, or undermine user privacy.” Both are required to comply with the Rules.

There are better solutions. For example, WhatsApp found a way to discourage massive chain forwarding of messages without itself knowing the content. It has the app note the number of times a message has been forwarded inside the message itself so that the app can then change its behavior based on this. Since the forwarding count is inside the encrypted message, the WhatsApp server and company don’t see it. So your app might not let you forward a chain letter, because the letter’s content shows it was massively forwarded, but the company can’t look at the encrypted message and know it's content.

Likewise, empowering users to report content can mitigate many of the harms that inspired the Indian 2021 Rules. The key principle of end-to-end encryption is that a message gets securely to its destination, without interception by eavesdroppers. This does not prevent the recipient from reporting abusive or unlawful messages, including now-decrypted content and the sender’s information. An intermediary may be able to facilitate user reporting, and still be able to provide the strong encryption necessary for a free society. Furthermore, there are cryptographic techniques for a user to report abuse in a way that identifies the abusive or unlawful content without the possibility of forging a complaint and preserving the privacy of those people not directly involved. 

The 2021 Rules endanger encryption, weakening the privacy and security of ordinary people throughout India, while creating tools which could all too easily be misused against fundamental human rights, and which can give inspiration for authoritarian regimes throughout the world.  The Rules should be withdrawn, reviewed and reconsidered, bringing the voices of civil society and advocates for international human rights, to ensure the Rules help protect and preserve fundamental rights in the digital age.

Categorieën: Openbaarheid, Privacy, Rechten

Victory! Californians Can Now Choose Their Broadband Destiny

Years ago, we noted that despite being one of the world’s largest economies, the state of California had no broadband plan for universal, affordable, high-speed access. It is clear that access that meets our needs requires fiber optic infrastructure, yet most Californians were stuck with slow broadband monopolies due to laws supported by the cable monopolies providing us with terrible service. For example, the state was literally putting obsolete copper DSL internet connections instead of building out fiber optics to rural communities under a state law large private ISPs supported in 2017. But all of that is finally coming to an end thanks to your efforts.

Today, Governor Newsom signed into law one of the largest state investments in public fiber in the history of the United States. No longer will the state of California simply defer to the whims of AT&T and cable for broadband access, now every community is being given their shot to choose their broadband destiny.

How Did We Get a New Law?

California’s new broadband infrastructure program was made possible through a combination of
persistent statewide activism from all corners, political leadership by people such as Senator Lena Gonzalez, and investment funding from the American Rescue Plan passed by Congress. All of these things were part of what led up to the moment when Governor Newsom introduced his multi-billion broadband budget that is being signed into law today. Make no mistake, every single time you picked up the phone or emailed to tell your legislator to vote for affordable, high-speed access to all people, it made a difference because it set the stage for today.

Arguably, what pushed us to this moment was the image of kids doing homework in fast-food parking lots during the pandemic. It made it undeniable that internet access was neither universal nor adequate in speed and capacity. That moment, captured and highlighted by Monterey County Supervisor Luis Alejo, a former member of the Sacramento Assembly, forced a reckoning with the failures of the current broadband ecosystem. Coupled with the COVID-19 pandemic also forcing schools to burn countless millions of public dollars renting out inferior mobile hotspots, Sacramento finally had enough and voted unanimously to change course.

What is California’s New Broadband Infrastructure Program and Why is it a Revolution?

California’s new broadband program approaches the problem on multiple fronts. It empowers local public entities, local private actors, and the state government itself to be the source of the solution. The state government will build open-access fiber capacity to all corners of the state. This will ensure that every community has multi-gigabit capacity available to suit their current and future broadband needs. Low-interest financing under the state’s new $750 million “Loan Loss Reserve” program will enable municipalities and county governments to issue broadband bonds to finance their own fiber. An additional $2 billion is available in grants for unserved pockets of the state for private and public applicants.

The combination of these three programs provides solutions that were off the table before the governor signed this law. For example, a rural community can finance a portion of their own fiber network with low-interest loans and bonds, seek grants for the most expensive unserved pockets, and connect with the state’s own fiber network at affordable prices. In a major city, a small private ISP or local school district can apply for a grant to provide broadband to an unserved low-income neighborhood. Even in high-tech cities such as San Francisco, an estimated 100,000 residents lack broadband access in low-income areas, proving that access is a widespread, systemic, not just a rural one, that requires an all hands on deck approach.

The revolution here is the fact that the law does not rely on AT&T, Frontier Communications, Comcast, and Charter to solve the digital divide. Quite simply, the program makes very little of the total $6 billion budget available to these large private ISPs who have already received so much money and still failed to deliver a solution.  This is an essential first step towards reaching near universal fiber access, because it was never ever going to happen through the large private ISPs who are tethered to fast profits and short term investor expectations that prevents them from pursuing universal fiber access. What the state needed was to empower local partners in the communities themselves who will take on the long-term infrastructure challenge.

If you live in California, now is your time to talk to your mayor and city council about your future broadband needs. Now is the time to talk to your local small businesses about the future the state has enabled if they need to improve their broadband connectivity. Now is the time to talk to your school district about what they can do to improve community infrastructure for local students. Maybe you yourself have the will and desire to build your own local broadband network through this law.

All of these things are now possible because for the first time in state history there is a law in place that lets you decide the broadband future.

Categorieën: Openbaarheid, Privacy, Rechten

Pagina's

Abonneren op Informatiebeheer  aggregator - Rechten