U bent hier

Rechten

Ook in de Europese Unie zien we biometrische surveillance, en deze surveillance ons

Bits of Freedom (BOF) - 30 maart 2021 - 2:17pm

Veel mensen denken dat massasurveillance op basis van bijvoorbeeld gezichtsherkenning alleen in China plaats vindt. Want in de Europese Unie houden we vast aan democratische waarden, toch? Maar helaas, ook hier gebeurt dit al. Wij geven je een ontluisterend inkijkje in de snelle opkomst van biometrische massasurveillance in landen binnen de EU.

Stop biometrische surveillance in de openbare ruimte en ondereken ons burgerinitiatief!

Laten we beginnen met een positieve noot: We kunnen dit nog stoppen!

Onderteken hier ons burgerinitiatief voor een Europees verbod op biometrische massasurveillance!

De wet biedt onvoldoende bescherming in de praktijk

De afgelopen jaren hebben overheden en private bedrijven indringende surveillancetechnologie geïntroduceerd waarbij gegevens over onze lichamen en ons gedrag worden verzameld en verwerkt. Zo worden allerlei unieke, persoonlijke gegevens over ons geregistreerd terwijl wij bezig zijn met onze dagelijkse levens. Dat noemen we biometrische massasurveillance.

Hoewel EU-ambtenaren beweren dat huidige wetgeving dergelijke praktijken voorkomt, is het duidelijk dat de wet in de praktijk onvoldoende bescherming biedt. Hierdoor is er wel degelijk sprake van biometrische massasurveillancetechnologie die op ons wordt toegepast en zo inbreuk maakt op onze rechten en vrijheden. De onderstaande voorbeelden spreken voor zich.

Inzet tijdens demonstraties en in het openbaar vervoer

In Duitsland experimenteert de politie met biometrische massasurveillance op reizigers op Berlin’s Südkreuz station en werd het toegepast op demonstranten tijdens de G20 top in Hamburg. Daarnaast heeft het onderhand beruchte bedrijf Clearview AI massaal de gezichten van mensen die in Duitsland wonen illegaal van het internet geplukt en gebruikt.

In Tsjechië heeft de politie Cogniware gezichtsherkenningssoftware ingekocht. Hiermee zouden zij emoties kunnen voorspellen, gender kunnen herkennen en iedere persoon linken met hun financiële informatie, telefoongegevens, welke auto men rijdt, waar men werkt, collega’s, met wie men omgaat, plekken die de persoon bezoekt en spullen die de persoon aanschaft. Daarnaast vindt er excessieve biometrische monitoring plaats van iedereen in het vliegveld van Praag, zonder van te voren een inschatting te maken van de gevolgen hiervan, zoals de wet vereist.

Stiekeme surveillance en leugendetectortechnologie

In Italië heeft de politie stiekem biometrische massasurveillance geïnstalleerd tegen rondhangen en het onbevoegd betreden van gebieden. Het vliegveld in Rome gebruikt gezichtsherkenning voor het managen van rijen mensen. En helaas is er meer: De Italiaanse politie is van plan om haar gezichtsherkenningssysteem uit te breiden voor het monitoren van de aankomst van migranten aan de Italiaanse kust. Eerder al probeerde zij dit systeem uit te breiden voor het monitoren van demonstranten. Non c'è modo, assolutamente no!

Ook in Griekenland wordt biometrische surveillancetechnologie aan de grens ingezet. Het dystopische iBorderCTRL experiment is een zogenaamde leugendetector die belooft leugens van waarheid te kunnen onderscheiden op basis van microexpressies in je gezicht. Daarnaast werd de Griekse politie op heterdaad betrapt toen in 2020 een 4 miljoen euro contract voor “smart” gezichtsherkenning werd onthuld. De Griekse toezichthouder is nu een onderzoek gestart naar de Griekse politie voor het onrechtmatig in massale databanken opslaan en verwerken van biometrische gegevens van Griekse burgers.

Scholen, straten en stadions

In België wordt in het veliegveld van Brussel Zaventeem stiekem iedereen die langsloopt in de gaten gehouden. De technologie wordt hier niet ingezet voor paspoortcontrole, maar verzamelt en verwerkt de gezichten van bezoekers.

De overheid in Denemarken staat het biometrisch surveilleren van voetbalsupporters toe. Voetbalclub Brøndby heeft aangekondigd dat de gezichten van alle bezoekers worden gescand om personen die eerder zijn weggestuurd te identificeren.

In Slovenië gebruikt de politie biometrische massasurveillance en werd deze technologie ook ingezet op demonstranten.

De Zweedse politie heeft een boete gekregen voor onrechtmaitg gebruik van Clearview AI. Ook werd er gezichtsherkenning ingezet om de aanwezigheid van leerlingen op scholen bij te houden.

In Polen en Servië zijn er meerdere gevallen van de inzet van biometrische surveillance bekend. Zo werd er op een Poolse school gebruik gemaakt van een systeem met vingerafdrukken voor de school lunches en werd in Belgrado in Servië massaal gezichtsherkenningscamera’s opgehangen in de straten.

En ook in Nederland

In Nederland is biometrische massasurveillance ingezet door bedrijven in voetbalstadions, supermarkten en andere winkels. De Autoriteit Persoonsgegevens moest bedrijven en supermarktbranches eraan herinneren dat dit niet is toegestaan. Bovendien heeft de politie een massale databank met maar liefst 1,4 miljoen gezichten. Dat betekent dat maar liefst 1 op de 12 Nederlanders daar in staat. Onlangs kwam naar buiten dat daarvan tienduizenden mensen mogelijk onterecht zijn opgenomen.

Maar we kunnen het stoppen!

En dit zijn alleen nog maar een aantal voorbeelden waar wij van weten. Kun je je voorstellen hoeveel er nog wordt ingezet wat niet op onze radar staat? En hoeveel contracten en plannen er zijn die niet openbaar zijn?

Wij roepen op tot een wet die de gaten en onduidelijkheden in huidige wetgeving dicht, zodat die niet langer misbruikt kunnen worden, en deze praktijk een halt toegeroepen wordt. De veelheid aan voorbeelden laat zien dat we een expliciet verbod op biometrische surveillance in de Europese openbare ruimte nodig hebben.

Onderschrijf daarom ons officiële burgerinitiatief om tot dit verbod te komen.

Onderteken het burgerinitiatief!

Categorieën: Openbaarheid, Privacy, Rechten

Moet mijn internetprovider mijn mobiele data kosten vergoeden wanneer ik geen toegang internet heb?

IusMentis - 30 maart 2021 - 8:17am

Via Reddit:

Ik heb glasvezel er is sinds [afgelopen woensdag] ergens een breuk in de kabel, het bedrijf zegt dat het nog wel 5 werkdagen (t/m volgende week woensdag) kan duren. Momenteel zitten er bij mij thuis 3 mensen in thuisquarantaine die online lessen moeten volgen. Vandaag is dat geregeld door alle devices op een hotspot aan te sluiten, maar dit is erg duur. Dus mijn vraag is of mijn provider deze kosten moet vergoeden of misschien een andere optie (bijv. Wifikastje) voor ons regelen?

U heeft recht op een vergoeding bij een internet-, televisie-  of telefoniestoring die langer duurt dan 12 uur, zo meldt de Rijksoverheid dan. De wet (art. 7.1a Telecommunicatiewet) noemt het Bij een volledige onderbreking van de levering van een als separate dienst te onderscheiden openbare elektronische communicatiedienst als gevolg van een storing in het netwerk van de aanbieder van die dienst (…) Het moet dus gaan om een vollédige onderbreking, waarvan hier wel sprake lijkt te zijn. Ook moet het gaan om de dienst van internettoegang (of televisie of telefonie) op zichzelf. Een storing van zeg je DNS-servers zou dus hier buiten vallen, ook al is internetten knap ingewikkeld als die het niet doen (jaja, je kunt je overgeven aan Google’s 8.8.8.8, maar leg jij het mijn moeder uit?). En storingen in diensten van derden zoals Gmail of WhatsApp tellen natuurlijk helemaal niet mee.

De vergoeding wordt bij ministeriële regeling bepaald, en is per dag 1/30e deel van het abonnementsgeld. Een storing van in totaal 12 uur of minder telt niet mee. Als ik dan even snel een basic Ziggo pakketje erbij pak, dan is dat €68 per maand (met drie wifiboosters, dat dan weer wel) dus dan zou je voor acht dagen storing (68/30)*8=18,13 euro (rond de 2 euro per dag) ontvangen.

Die 2 euro per dag is net iets minder dan een T-Mobile prepaid sim met unlimited data, dus het dekt niet helemaal de kosten. En van een thuisnetwerk met drie wifiboosters naar een 4g simkaart met z’n allen voelt niet echt als de oplossing voor thuis leren en werken.

Juridisch gezien zit er alleen niet meer in. Het gaat om consumentendienstverlening, dus schade moet je in de consumentensfeer zoeken en dat is dan eigenlijk altijd lastig in geld uit te drukken. En als daar dan ook zo’n regeling bij zit van die 1/30e per dag je geld terug, dan heb je denk ik verder geen verhaal.

Bij een zakelijk contract zou dat anders zijn; daar is je schade immers al snel gederfde omzet en dat soort grappen. Maar daar mag de dienstverlener dan weer zijn aansprakelijkheid beperken en dat soort dingen uitsluiten. zodat je effectief op hetzelfde neerkomt.

Dus nee. Heel vervelend, maar juridisch niets aan te doen. Ik krijg nu visioenen van meerdere 4G sims aan elkaar koppelen en zo een bredere datalink maken, maar ik vermoed dat de uitleg die je dan nodig hebt niet in onderstaand commentaarveld past.

Arnoud

Het bericht Moet mijn internetprovider mijn mobiele data kosten vergoeden wanneer ik geen toegang internet heb? verscheen eerst op Ius Mentis.

Stupid Patent of the Month: Telehealth Robots Say Goodbye

Before COVID-19, people living in rural and isolated areas urgently needed to access health care services remotely; now we all do. Thanks to decades of innovation in computing and telecommunications, more essential health care services are available electronically than ever before. But there’s no guarantee they will always be as accessible and affordable as they are today. Because the Patent Office keeps granting patents on old ways of using networked computers, it keeps gambling with the public’s future access to telehealth technology.

 The term “telehealth” includes any way of using electronic information and telecommunications technology to provide or administer healthcare and services related to health care, like electronic recordkeeping. It’s broader than “telemedicine,” which refers only to ways of using telecommunications to replace clinical care, like videoconferencing can. Both have become increasingly essential in the wake of COVID-19. According to one recently-published study, telemedicine services grew by more than 1000% in March and more than 4000% in April of 2020. Although people are going to doctors in person again, the demand for telemedicine is still expected to grow.

Though the urgent need for telehealth is relatively new, the ability to make and use it is not. Our government has been developing and deploying these technologies for more than sixty years with early projects through the U.S. Space Program, including one involving the Tohono O’odham Indian Nation that demonstrated the feasibility of providing medical care via telecommunication in the 1970s. 

With so many pioneering advances in the past, it should be challenging to get new telehealth patents today. It should be even more challenging since the Supreme Court’s 2014 decision in Alice v. CLS Bank that generic computer technology cannot make an abstract idea eligible for patent protection. Unfortunately, our latest Stupid Patent of the Month shows the Patent Office is not doing its job. Instead of granting patents on new and useful inventions, it is rubber-stamping applications on anything under the sun without regard for the requirements of patent law or needs of the public during the present health crisis.

U.S. Patent No. 10,882,190 (’190 patent) wins March 2021’s Stupid Patent of the Month for the “Protocol for a Remotely Controlled Videoconferencing Robot,” granted on December 16, 2020. The owner is Teladoc Health, a publicly-traded, multinational telehealth provider. Since launching in 2002, Teladoc has  acquired numerous smaller entities. And in the middle of 2020, Teladoc acquired InTouch Technologies, along with its massive portfolio of telehealth patents and patent applications. Teladoc has not waited for COVID-19 to abate to assert several of its newly-acquired patents against smaller rival Amwell, a telemedicine provider with about 700 employees based in Boston.

The ’190 Patent has one claim for a “robot system that communicates through a broadband network.” The system comprises multiple “robots,” but for all the science fiction fantasies that word conjures, these robots can be any kind of computing device with a camera, monitor, and broadband interface. Whatever these robots are, they’re not claimed as the invention. The claimed invention is a system where at least one robot “generates a goodbye command that terminates a communication session” with another robot and “relinquishes control.”

A network of computers that can start and stop communicating with each other is not a patent-eligible invention; it’s just a computer network. As a result, there’s nothing in the ’190 Patent claim that could qualify as an invention attributable to the applicant rather than prior computing and telecommunications advances. But as we’ve explained, the Patent Office under former Director Andrei Iancu changed the rules to make it practically impossible for examiners to reject patents claiming generic computer system even when Supreme Court precedent requires it. 

The Patent Office should have rejected the ’190 Patent application for other reasons too. The application was filed in January 13, 2020, but that was not its priority date. If it were, the Patent Office could have considered technology from 2019 when deciding whether the application claimed something truly novel. But because the ’190 Patent was filed as a “continuation” of an older application filed on December 9, 2003 (and granted as a patent in 2010), it is treated as if filed on the same day, and gets the same early priority date. That means the Patent Office could only compare the application filed in 2020 to technology that existed before 2003, and had to ignore all intervening advances in the field. Scholars have reported on the outrageous continuation system for years. As long as it persists, patent owners will be able to extend their patent monopolies beyond twenty years.

Continuation abuse aside, the Patent Office had plenty of pre-2003 prior art to consider.

For example, Columbia University had for years deployed more than 400 home telemedicine units that provided synchronous videoconferencing over standard telephone lines, secure Web-based messaging and clinical data review, and access to Web-based educational materials. But there’s no sign the Patent Office considered that or anything else. As early as 1995, there were prior art robot systems in which multiple users could take turns controlling robots remotely. 

Yet there’s no indication the Patent Office considered these prior art references or any others. In fact, there’s no sign the ’190 Patent got any substantive examination at all. The Patent Office granted the ’190 Patent in less than a year without leaving a trace of its reasoning. The examiner did not even issue a non-final rejection, which had long been standard practice for the vast majority of patent applications. Although we advocated for more rigorous patent examination procedures, we have rarely seen records of an examination as deficient as this.

The job of the Patent Office is not to simply grant patent applications on demand, but to examine patent applications so that only those compliant with the law become granted patents. When the Patent Office fails at this task, the public’s access to technology falters. Given the pressing need for telehealth access, we need a Director who will focus on getting examiners to apply the law correctly instead of pushing them to grant as many applications as possible.

Categorieën: Openbaarheid, Privacy, Rechten

Reporter ohne Grenzen vs. Facebook – NetzDG und Overblocking – Einigung zu Bestandsdatenauskunft

iRights.info - 29 maart 2021 - 10:26am

Die NGO Reporter ohne Grenzen verklagt Facebook wegen betrügerischer Geschäftspraktiken bei Desinformation und Hassrede. Eine Studie zum Netzwerkdurchsetzungsgesetz kritisiert Overblocking rechtskonformer Inhalte in Sozialen Netzwerken. Bundestag und Bundesrat einigen sich über Herausgabe von Kommunikationsdaten an Strafverfolgungsbehörden.

Hassrede und Desinformation: Reporter ohne Grenzen klagt gegen Facebook

Reporter ohne Grenzen (ROG) klagt in Frankreich gegen Facebook. Der Vorwurf: betrügerische Geschäftspraktiken im Umgang mit Hassrede und Desinformation. Es könnten sich ungehindert falsche Informationen zur Corona-Pandemie und Drohungen gegen Medienschaffende auf der Plattform verbreiten, so ROG. Grundlage für die Vorwürfe seien Expertenanalysen, Zeugenaussagen und Zitate ehemaliger Facebook-Mitarbeitender. Dabei sichere Facebook rechtsverbindlich zu, ein sicheres Umfeld auf der Plattform zu schaffen und Desinformationen zu reduzieren – laut ROG eine betrügerische Aussage. Die Klage wurde in Paris eingereicht, da dort ein besonders scharfes Verbraucherschutzstrafrecht gelte.

Studie veröffentlicht: Führt das NetzDG zum Overblocking?

Die Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK) hat unter der Leitung von Marc Liesching eine 400-seitige Studie zum Netzwerkdurchsetzungsgesetz (NetzDG) veröffentlicht. Die Forscher*innen kommen zu dem Schluss, dass das NetzDG seinen Zweck verfehlen würde. Es führe zum Overblocking rechtskonformer Inhalte in Sozialen Netzwerken. Facebook, Youtube und Twitter würden Inhalte überwiegend nach den eigenen Community-Standards entfernen – und diese durch die engen Löschfristen und hohen Bußgelddrohungen des NetzDG bewusst weit fassen. Lieschings Team habe ebenfalls herausgefunden, dass seit Einführung des NetzDG mehr Inhalte vorsorglich gesperrt würden (Overblocking). YouTube sagte auf Anfrage, dass „die erheblichen Geldbußen und die engen Fristen des NetzDG einen ‚starken Anreiz‘ setzten, Inhalte in fast allen Fällen im Zweifel zu löschen“.

Bestandsdatenauskunft: Einigung im Streit um Passwortherausgabe

Bundestag und Bundesrat haben sich über die Herausgabe von Kommunikations- und Nutzerdaten an Ermittler*innen geeinigt. Im Februar 2021 hatte der Bundesrat ein Gesetz dazu noch abgelehnt. Der nun nachgebesserte Vorschlag sieht laut Vermittlungsausschuss „strengere Voraussetzungen für die Auskunft über Nutzungsdaten und die Herausgabe von Passwörtern an Strafverfolgungsbehörden“ vor. Außerdem soll „mehr Übersichtlichkeit und Rechtsklarheit im Telemediengesetz (TMG)“ geschaffen werden. Die Herausgabe von Passwörtern würde weiterhin unter den Straftatenkatalog der Onlinedurchsuchung fallen. Delikte wie Bandendiebstahl, schwerer Raub und Geldwäsche wurden aus dem Katalog gestrichen. Auskünfte zu Nutzungsdaten seien nur bei Verfolgung von Straftaten und nicht bei Verfolgung von Ordnungswidrigkeiten möglich. Mit diesem Gesetz soll nun auch das geplante Gesetz zur Bekämpfung des Rechtsextremismus und der Hasskriminalität nachgebessert werden, dessen Ausfertigung Bundespräsident Frank-Walter Steinmeier bisher aufgrund von verfassungsrechtlichen Bedenken an der Bestandsdatenauskunft verweigert hat.

Dieser Wochenrückblick wurde von Sarah Baumann für Telemedicus verfasst; Lizenz: BY-NC-SA 3.0

Anonymity is indispensable

Bits of Freedom (BOF) - 29 maart 2021 - 9:37am

Would an anonymity ban on social media be a good solution to counter all the hatred on these platforms? We were asked this question by a national newspaper in response to such calls. Here is our reaction.

At the schoolyard

Being able to stay anonymous online is vitally important. It enables you to speak out who you are. Perhaps you teach a classroom of young children during the day and at night you like to pop a pill and go wild. You want to share that experience, but without having to explain yourself to an angry parent the next morning at the schoolyard.

Anonymity also helps you to discover who you are. If you are confused about the gender that you are attracted to, you want to share those thoughts with others, without having to out yourself completely. Anonymity is indispensable for your self-development and your freedom of speech.

The process to go to court over content that somebody put online must be simpler, quicker and more accessible.

Online filth

It’s true that some people abuse the opportunity to give vent to their opinions under a random name. The filth that is continually spouted online makes me shudder every time. It’s always hurtful to hear about people who are not active on social media for fear of brutal, completely unfounded and improper threats.

There are many reasons why the internet is not a nice place for everybody. This is in part due to the way the social media platforms themselves were designed. The platforms were built to elicit and give priority to short, simplistic and controversial reactions. It’s also not helpful that smearing somebody online hardly has any consequences.

Be yourself? Donate to us!

Anonymity is indispensable

However, questioning whether or not we should allow anonymity on social media is really the wrong question. You are not anonymous at this very moment; only when you use specialized technology and deliberately control your behaviour. But hardly anybody does that and it’s difficult to keep up long-term anyway. So, unless you practise these things you are rarely, if ever, truly anonymous.

If you think someone has said something disproportionately harmful about you, you can sue them. To do so you will need to pay a visit to the platform and have them hand over the IP-address of the author. With the help of an internet provider this will enable you in most cases to track down the real name and contact details of the coward.

Energy, time and money

The problem is that it will cost you a huge amount of energy, time and money. Not everybody has that. This puts up a barrier to take action and lets the jerks who posted the poisonous content go free.

The process to go to court over content that somebody put online must be simpler, quicker and more accessible. It should be easier than it is now to have a post removed, demand a rectification or claim damages. It should also be possible to take down postings by way of a shortened procedure when they are clearly against the law and have serious impact, like revenge porn or certain threats.

Anonymity is essential to self-development

Protect both victim and anonimity

I do understand that this is much more complicated than simply calling for a ban on anonymity on social media. The process needs much more creativity and perseverance than introducing a new ban. Anonymity is essential to self-development and it would be a terribly shame if we unwittingly discard it through our own laziness or lack of ambition. Everybody stands to gain if we can give internet users the tools to fight back against the hate and filth that’s inflicted on them, while at the same time preserving all the good that comes with anonymity.

Categorieën: Openbaarheid, Privacy, Rechten

Moet je ook een DPIA uitvoeren op interne systemen?

IusMentis - 29 maart 2021 - 8:18am

Een lezer vroeg me: Volgens de AVG zijn er een aantal criteria wanneer je een DPIA moet uitvoeren. Maar vallen interne systemen, zoals o.a. een DMS, e-mail, backups ed. ook onder deze ‘plicht’ ? Ik vraag dit omdat onze FG ook die systemen als “hoog risico” aanmerkt, wat enorme vertraging geeft. Een DPIA of data protection impact assessment is een verplicht nummer voor verwerkingen van persoonsgegevens met waarschijnlijk een hoog risico voor de betrokken personen (artikel 35 AVG). Meestal gaat het dan om nieuwe technologieën, maar dat hoeft niet.

Om te bepalen of het risico hoog is, moet je volgens de AVG kijken naar “de aard, de omvang, de context en de doeleinden” van de verwerking. Er is geen expliciete uitzondering voor intern versus extern, wat dat ook zou mogen betekenen in de context van verwerken van persoonsgegevens.

De AP heeft een lijst gepubliceerd van verwerkingen die in ieder geval eerst aan een DPIA onderworpen moeten worden. Hieronder valt onder meer heimelijk onderzoek van personeel door werkgevers, grootschalige fraudebestrijding (concreet: AI-analyse van je klantenbestand), grootschalig monitoren van personeel of klanten, stelselmatig monitoren van dataverkeer anders dan voor security, uitgebreid profileren en ga zo maar door.

Ik zie wel hoe een “intern” gebruik van persoonsgegevens onder deze kopjes kan vallen. De kern is voor mij wel dat het vrijwel altijd gaat om “grootschalig” gebruik. Dus één werknemer tijdelijk volgen vanwege een vermoeden van lekken van bedrijfsgeheimen zou geen DPIA vereisen.

Het uitrollen van een nieuw e-mailsysteem zou voor mij ook geen DPIA nodig hebben, maar wél als je er productiviteitsdingen in gaat toevoegen en daarmee werknemers monitort op hun effectiviteit. Een nieuwe procedure voor backups van bedrijfsdata lijkt me op zich ook niet hogo risico, met backups ging je sowieso al om alsof het goud was.

Arnoud

Het bericht Moet je ook een DPIA uitvoeren op interne systemen? verscheen eerst op Ius Mentis.

16 t/m 18 april: Rechtspraaksystemen niet bereikbaar vanwege groot onderhoud

Van vrijdagavond 16 april tot en met zondag 18 april zijn vrijwel alle computersystemen van de Rechtspraak niet bereikbaar vanwege groot onderhoud. Dit betekent dat niet digitaal kan worden geprocedeerd en onder meer het uitsprakenregister en het curatele- en bewindregister niet beschikbaar zijn. Ook het overgrote deel van de faxnummers van de Rechtspraak is niet bereikbaar.

De werkzaamheden starten op vrijdagavond om 19.30 uur en duren tot zondagavond 23.59 uur. Voor gedetailleerde informatie over welke systemen en diensten niet beschikbaar zijn, zie: onderhoud en storingen.

Uitwijkmogelijkheden

Is het voor u noodzakelijk om in deze periode stukken in te dienen? Kijk voor uitwijkmogelijkheden op de pagina Wat te doen bij onderhoud en storingen.

Als u hier nog aanvullende vragen over heeft, dan kunt u via Twitter of Facebook contact met ons opnemen. Indien nodig verstuurt de Rechtspraak via Twitter informatie over de stand van zaken.

Op werkdagen kunt u ook bellen met het Rechtspraak Servicecentrum: 088 361 61 61. Bereikbaar maandag t/m donderdag van 8.00 uur tot 20.00 uur en op vrijdag van 8.00 uur tot 17.30 uur.

Categorieën: Rechten

Von A wie „Allmende“ bis Z wie „Zukunft“: Wikipedia feiert 20. Geburtstag mit „ABC des Freien Wissens“

iRights.info - 27 maart 2021 - 9:55am

Die größte Enzyklopädie der Welt feiert 2021 ihren zwanzigsten Geburtstag: Die deutschsprachige Wikipedia ging 2001 online. Mit einer Aktionswoche und einem vielstimmigen und informativen „ABC des Freien Wissens“ begeht der Trägerverein Wikimedia Deutschland das Jubiläum.

Der gemeinnützige Verein Wikimedia Deutschland wurde 2004 von ehrenamtlichen Wikipedia-Aktiven gegründet – als deutscher Ableger von Wikimedia, einer gemeinnützigen Organisation, die in vielen Ländern vertreten ist. Wikimedia setzt sich weltweit für Freies Wissen ein. Wikipedia ist dabei nur eines von vielen Projekten, zweifelsohne aber das bekannteste und weltweit am meisten genutzte Projekt.

Anlässlich des 20-jährigen Bestehens der freien Online-Enzyklopädie fand online eine Aktionswoche mit verschiedenen Mitmach-Formaten, Diskussionsrunden und Video-Glückwünschen statt.

Von A bis Z durch Wiki-Welt

Mit dem „ABC des Freien Wissens“, einer Sammlung von Interviews mit über 50 Personen aus Politik, Kultur, Wissenschaft, Bildung und Netzcommunity, bringt Wikimedia zudem Ideen rund um den freien Wissensaustausch im Netz zusammen. In alphabetischer Reihenfolge, von „A wie Allmende bis Z wie Zukunft“ können Nutzer*innen sich anhand von relevanten Schlagwörtern durch die Wiki-Welt klicken.

Unter „J” wie „Journals“ erläutern beispielsweise Christina Riesenweber und Saskia Ostendorff, wie eine nachhaltige Open-Access-Praxis für die Wissenschaft aussehen kann. Ziel müsse eine Infrastruktur-Unterstützung durch Fördergeber wie das Bundesministerium für Bildung und Forschung (BMBF) sein, die auch Wissenschaftsverlage und Publikationsorten außerhalb des Mainstreams in den Blick nehmen.

Katharina Nocun und Jens Olig sprechen unter „M” wie „Macht der Daten“ darüber, wer die Datenmacht in einer freien Gesellschaft und damit auch die Macht über Wissen innehat. Gerade die Corona-Pandemie habe gezeigt, dass viele Menschen Apps und andere Anwendungen nutzten, ohne sich ernsthafte Gedanken darüber zu machen, welche Daten diese abgriffen. Stattdessen sei der Datenschutz in der Diskussion um die Corona-Warnapp als Bremse dargestellt worden.

Den 20. Geburtstag von Wikipedia nehmen auch Kulturschaffende zum Anlass, eigene Projekte frei zugänglich zu machen: Filmemacherin Sandra Trostel beispielsweise stellt ihren Dokumentarfilm „All Creatures Welcome“ unter einer Creative Commons-Lizenz online zur Verfügung. Der Film begleitet Veranstaltungen des Chaos Computer Clubs, Europas größte Hackervereinigung, und zeigt die Welt der digitalen Communities.

https://twitter.com/FilmGizmo/status/1374728470622830602

Das „ABC des Freien Wissens“ ist ein länger andauerndes Projekt von Wikimedia Deutschland. Regelmäßig lädt der Verein Fachpersonen aus Politik, Kultur und Wissenschaft zum Salongespräch ein. Dabei werden seit 2014 verschiedene gesellschaftspolitische Themen durchbuchstabiert, die im weitesten Sinne mit der Verbreitung Freien Wissens zusammenhängen.

Alle Videos des Salons von A bis Z zeigt Wikimedia auf YouTube. Zuletzt waren unter dem Buchstaben „Z” wie „Zwanzig Jahre Wikipedia – Wohin steuert das 8. Weltwunder?“ Saskia Esken, Parteivorsitzende der SPD, und Sascha Lobo, Autor und Journalist, zu Gast.

Even with Changes, the Revised PACT Act Will Lead to More Online Censorship

Among the dozens of bills introduced last Congress to amend a key internet law that protects online services and internet users, the Platform Accountability and Consumer Transparency Act (PACT Act) was perhaps the only serious attempt to tackle the problem of a handful of dominant online services hosting people’s expression online.

Despite the PACT Act’s good intentions, EFF could not support the original version because it created a censorship regime by conditioning the legal protections of 47 U.S.C. § 230 (“Section 230”) on a platform’s ability to remove user-generated content that others claimed was unlawful. It also placed a number of other burdensome obligations on online services.

To their credit, the PACT Act’s authors—Sens. Brian Schatz (D-HI) and John Thune (R-SD)—listened to EFF and others’ criticism of the bill and amended the text before introducing an updated version earlier this month. The updated PACT Act, however, contains the same fundamental flaws as the original: creating a legal regime that rewards platforms for over-censoring users’ speech. Because of that, EFF remains opposed to the bill.

Notwithstanding our opposition, we agree with the PACT Act’s sponsors that internet users currently suffer from the vagaries of Facebook, Google, and Twitter’s content moderation policies. Those platforms have repeatedly failed to address harmful content on their services. But forcing all services hosting user-generated content to increase their content moderation doesn’t address Facebook, Google, and Twitter’s dominance—in fact, it only helps cement their status. This is because only well-resourced platforms will be able to meet the PACT Act’s requirements, notwithstanding the bill’s attempt to treat smaller platforms differently.

The way to address Facebook, Google, and Twitter’s dominance is to enact meaningful antitrust, competition, and interoperability reforms that reduce those services’ outsized influence on internet users’ expression.

Notice and Takedown Regimes Result in Censoring Those With Less Power

As with its earlier version, the revised PACT Act’s main change to Section 230 involves conditioning the law’s protections on whether online services remove content when they receive a judicial order finding that the content is illegal. As we’ve said before, this proposal, on its face, sounds sensible. There is likely to be little value in hosting user-generated content that a court has determined is illegal.

But the new PACT Act still fails to provide sufficient safeguards to stop takedowns from being abused by parties who are trying to remove other users’ speech that they do not like.

In fairness, it appears that Sens. Schatz and Thune heard EFF’s concerns with the previous version, as the new PACT Act requires that any takedown orders be issued by courts after both sides have litigated a case. The new language also adds additional steps for takedowns based on default judgments, a scenario in which the defendant never shows up to defend against the suit. The bill also increases the time a service would have to respond to a notice, from 24 hours to 4 days in the case of large platforms.

These marginal changes, however, fail to grapple with the free expression challenges of trying to implement a notice and takedown regime where a platform’s legal risk is bound up with the risk of being liable for a particular user’s speech.

The new PACT Act still fails to require that takedown notices be based on final court orders or adjudications that have found content to be unlawful or unprotected by the First Amendment. Courts issue preliminary orders that they sometimes later reverse. In the context of litigation about whether certain speech is legal, final orders issued by lower courts are often reversed by appellate courts. The PACT Act should have limited takedown notices to final orders in which all appeals have been exhausted. It didn’t, and is thus a recipe for taking down lots of lawful expression.

there is very little incentive for platforms to do anything other than remove user-generated content in response to a takedown notice, regardless of whether the notices are legitimate

More fundamentally, however, the PACT Act’s new version glosses over the reality that by linking Section 230’s protections to a service’s ability to quickly remove users’ speech, there is very little incentive for platforms to do anything other than remove user-generated content in response to a takedown notice, regardless of whether the notices are legitimate.

To put it another way: the PACT Act places all the legal risk on a service when it fails to comply with a takedown demand. If that happens, the service will lose Section 230’s protections and be treated as if it were the publisher or speaker of the content. The safest course for the intermediary will be to avoid that legal risk and always remove the user-generated content, even if it comes at the expense of censoring large volumes of legitimate expression.

The new PACT Act’s safeguards around default judgments are unlikely to prevent abusive takedowns. The bill gives an online service provider 10 days from receiving a notice to intervene in the underlying lawsuit and move to vacate the default judgment. If a court finds that the default judgment was “sought fraudulently,” the online service could seek reimbursements of its legal costs and attorney’s fees.

This first assumes that platforms will have the resources required to intervene in federal and state courts across the country in response to suspect takedown notices. But a great number of online services hosting user-generated speech are run by individuals, nonprofits, or small businesses. They can’t afford to pay lawyers to fight back against these notices.

The provision also assumes services will have the incentive to fight back on their users’ behalf. The reality is that it’s always easier to remove the speech than to fight back. Finally, the ability of a provider to recoup its legal costs depends on a court finding that an individual fraudulently sought the original default judgment, a very high burden that would require evidence and detailed findings by a judge.

Indeed, the PACT Act’s anti-abuse provision seems to be even less effective than the one contained in the Digital Millennium Copyright Act, which requires copyright holders to consider fair use before sending a takedown notice. We know well that the DMCA is a censorship regime rife with overbroad and abusive takedowns, even though the law has an anti-abuse provision. We would expect the PACT Act’s takedown regime to be similarly abused.

Who stands to lose here? Everyday internet users, whose expression is targeted by those with the resources to obtain judicial orders and send takedown notices.

We understand and appreciate the sponsors’ goal of trying to help internet users who are the victims of abuse, harassment, and other illegality online. But any attempts to protect those individuals should be calibrated in a way that would prevent new types of abuse, by those who seek to remove lawful expression.

More Transparency and Accountability Is Needed, But It Shouldn’t Be Legally Mandated

EFF continues to push platforms to adopt a human rights framing for their content moderation decisions. That includes providing users with adequate notice and being transparent about their moderation decisions. It is commendable that lawmakers also want platforms to be more  transparent and responsive to users, but we do not support legally mandating those practices.

Just like its earlier version, the new PACT Act compels services to disclose their content moderation rules, build a system for responding to complaints about user-generated content, and publish transparency reports about their moderation decisions. The bill would also require large platforms to operate a toll-free phone number to receive complaints about user-generated content. And as before, platforms that fail to implement these mandates would be subject to investigation and enforcement actions by the Federal Trade Commission.

As we said about the original PACT Act, mandating services to publish their policies and transparency reports on pain of enforcement by a federal law enforcement agency creates significant First Amendment concerns. It would intrude on the editorial discretion of services and compel them to speak.

The new version of the PACT Act doesn’t address those constitutional concerns. Instead, it changes how frequently a service has to publish a transparency report, from four times a year to twice a year. It also creates new exceptions for small businesses, which would not have to publish transparency reports, and for individual providers, which would be exempt from the new requirements.

As others have observed, however, the carveouts may prove illusory because the bill’s definition of a small business is vague and the cap is set far too low. And small businesses that meet the exception would still have to set up systems to respond to complaints about content on their platform, and permit appeals by users who believe the original complaint was wrong or mistaken. For a number of online services—potentially including local newspapers with comment sections—implementing these systems will be expensive and burdensome. They may simply choose not to host user-generated content at all.

Reducing Large Service’s Dominance Should Be the Focus, Rather Than Mandating That Every Service Moderate User Content Like Large Platforms

We get that given the current dominance of a few online services that host so much of our digital speech, communities, and other expression, it’s natural to want new laws that make those services more accountable to their users for their content moderation decision. This is particularly true because, as we have repeatedly said, content moderation at scale is impossible to do well.

Yet if we want to break away from the concentration of Facebook, Google, and Twitter hosting so much of our speech, we should avoid passing laws that assume we will be forever beholden to these services’ moderation practices. The PACT Act unfortunately makes this assumption, and it demands that every online service adopt content moderation and transparency policies resembling the major online platforms around today.

we should avoid passing laws that assume we will be forever beholden to these services’ moderation practices

Standardizing content moderation will only ensure those platforms with the resources and ability to meet the PACT Act’s legal requirements will survive. And our guess is those platforms will look a lot more like Facebook, Google, and Twitter rather than being diverse. They aren’t likely to have different or innovative content moderation models that might serve internet users better.

Instead of trying to legally mandate certain content moderation practices, lawmakers must tackle Facebook, Google, and Twitter’s dominance and the resulting lack of competition head on by updating antitrust law, and embracing pro-competitive policies. EFF is ready and willing to support those legislative efforts.

Categorieën: Openbaarheid, Privacy, Rechten

Dystopia Prime: Amazon Subjects Its Drivers to Biometric Surveillance

Some high-tech surveillance is so dangerous to privacy that companies must never deploy it against a person without their voluntary opt-in consent. It comes as little surprise that Amazon, the company that brought you Ring doorbell cameras and Rekognition face surveillance, has a tenuous understanding of both privacy and consent. Earlier this week, Motherboard revealed the company’s cruel “take it or leave” demand to its 75,000 delivery drivers: submit to biometric surveillance or lose your job.

Amazon’s “Privacy Policy for Vehicle Camera Technology” states it may collect “face image and biometric information.” The company uses this information, among other things, to verify driver identity, and to provide “real-time in-vehicle alerts” about driver behaviors such as potentially distracted driving. This sensitive information collected by “safety cameras” mounted in delivery vehicle cabins is stored for as long as 30 days and available to Amazon on request. The company’s “Vehicle Technology and Biometric Consent” document states: “As a condition of delivering Amazon packages, you consent to the use of the Technology and collection of data and information from the Technology by Amazon …” Likewise, the company’s “Photos Use and Biometric Information Retention Policy” states: “Amazon … require[s] that users of the Amazon delivery application provide a photo for identification purposes. Amazon may derive from your stored photo a scan of your face geometry or similar biometric data …”

According to an Amazon contractor who spoke to Motherboard: “I had one driver who refused to sign. It’s a heart-breaking conversation when someone tells you that you’re their favorite person they have ever worked for, but Amazon just micromanages them too much.” 

According to another Amazon driver, who spoke to Thomson Reuters Foundation last month about this new surveillance program: “We are out here working all day, trying our best already. The cameras are just another way to control us.”

The new Amazon system, called Driveri, is built by a company called Netradyne. It combines always-on cameras, pointed at both the driver and the road, with real-time AI analysis of the footage. Five U.S. Senators recently sent Amazon a letter raising privacy and other concerns about Driveri, and seeking information about it.

In a recent blog, we detailed why biometric surveillance technologies, such as face recognition, must never be deployed without informed and freely given opt-in consent. As we explained, we cannot change our biometrics, and it is extraordinarily difficult to hide them from other people. With advances in technology, it is easier every day for companies to collect our biometrics, rapidly identify us, build dossiers about us and our movements, and sell all this information to others.

Fortunately, Illinois enacted its Biometric Information Privacy Act (BIPA). This critical law requires companies to obtain opt-in consent before collecting a person’s biometrics or using them in a new way. It also establishes a deletion deadline. People whose BIPA rights are violated may enforce the law with their own private right of action. We oppose efforts, past and present, to exempt workplaces from BIPA's scope. A federal bill to extend BIPA  nationwide was introduced last year by U.S. Sens. Jeff Merkley and Bernie Sanders.

Of course, when Amazon says to its drivers, “give us your biometrics or you’re fired” – that’s not consent. That’s coercion.  

Categorieën: Openbaarheid, Privacy, Rechten

Pleeg je handel in voorkennis als je doet alsof je voorkennis verkoopt op het dark web?

IusMentis - 26 maart 2021 - 8:19am

Een intrigerend persbericht van de Amerikaanse beurstoezichthouder: “The Securities and Exchange Commission today charged James Roland Jones of Redondo Beach, California, with perpetrating a fraudulent scheme to sell what he called “insider tips” on the dark web.” Jones deed zich daar voor als een insider bij diverse beursgenoteerde bedrijven (en/of in contact met insiders) om zo te handelen in nog niet publieke, beursgevoelige informatie. Handel met voorkennis dus, “securities fraud” in het Amerikaanse jargon. Omdat het het dark web was (wat betekent dat je het met Google niet kunt vinden), dachten mensen daar lekker te scoren, het is natuurlijk heel aantrekkelijk om met voorkennis aandelen te kunnen kopen of verkopen. Alleen: Jones hád helemaal geen voorkennis, hij ging af op publieke informatie of deed gewoon een gok, kennelijk vaak genoeg met goed resultaat en bovendien kreeg je je geld terug als de tip niks was. Maar is dat dan fraude?

Handel met voorwetenschap (de Europese jargonterm) is natuurlijk al heel lang verboden, omdat het oneerlijk is naar andere beursdeelnemers toe. Een beursgenoteerd bedrijf moet iedereen gelijke kennis geven, en moet dus voorkomen dat werknemers of directieleden hun voorwetenschap die ze vanuit het werk opdoen, inzetten om snel te kopen of verkopen.

Het toezicht is relatief eenvoudig (je kunt zien wie er koopt of verkoopt immers) en daardoor vrij streng. Mensen hanteren dus trucjes, zoals de buurman een tip geven en dan de winst delen. Maar ook dat gaat opvallen, en dan krijg je dus dingen als het “dark web”, zeg maar een niet met Google te vinden forum waar je jezelf van alles kunt noemen en kunt handelen in je kennis. Zo ook Jones, die een forum had gevonden voor handel in zulke tips: According to the complaint, in order to gain access to the insider trading forum, Jones lied about possessing material, nonpublic information.  By doing so, Jones allegedly gained access to the insider trading forum for a short period, but was unsuccessful in obtaining valuable material, nonpublic information.  The complaint further alleges that Jones subsequently devised a scheme to sell purported insider tips to others on the dark web.  The SEC alleges that, in the spring of 2017, Jones offered and sold on one of the dark web marketplaces various purported “insider tips” that he falsely described as material, nonpublic information from the insider trading forum or corporate insiders. Het voelt wat ingewikkeld dat je zou handelen in voorwetenschap wanneer je niet daadwerkelijk voorwetenschap hebt. Want artikel 8 lid 1 Verordening Marktmisbruik definieert het zo: Voor de toepassing van deze verordening doet handel met voorwetenschap zich voor wanneer een persoon die over voorwetenschap beschikt die informatie gebruikt om, voor eigen rekening of voor rekening van derden, rechtstreeks of middellijk financiële instrumenten te verwerven of te vervreemden waarop die informatie betrekking heeft. Voorwetenschap is dan weer “niet openbaar gemaakte informatie die concreet is en die rechtstreeks of onrechtstreeks betrekking heeft op een of meer uitgevende instellingen of op een of meer financiële instrumenten en die, indien zij openbaar zou worden gemaakt, een significante invloed zou kunnen hebben op de koers van deze financiële instrumenten of daarvan afgeleide financiële instrumenten”. Maar die had Jones dus net niet. Dus nee, ik zie niet hoe dat strafbaar is. Misschien als je het gooit op gewoon ouderwetse oplichting, met een slinkse truc doen of je iets kunt leveren dat mensen willen hebben? Langs die weg is ook bijvoorbeeld je voordoen als huurmoordenaar en dan wegrennen met het geld strafbaar, ook al zeg je dan nog zo hard achteraf dat je toch echt nooit iemand zou vermoorden.

De SEC gooit het over die laatste boeg, door hem fraude bij aandelenhandel ten laste te leggen: liegen over de waarde van je informatie is fraude, en het gaat over aandelen dus het is aandelenfraude. Maar toch is het niet hetzelfde, volgens mij.

En nog een intrigerende: is het handel in voorwetenschap als je als directeur van je bedrijf zegt “volgens mij staan onze aandelen te hoog” zonder zelf te gaan kopen of verkopen?

Arnoud

Het bericht Pleeg je handel in voorkennis als je doet alsof je voorkennis verkoopt op het dark web? verscheen eerst op Ius Mentis.

Free as in Climbing: Rock Climber’s Open Data Project Threatened by Bogus Copyright Claims

Rock climbers have a tradition of sharing “beta”—helpful information about a route—with other climbers. Giving beta is both useful and a form of community-building within this popular sport. Given that strong tradition of sharing, we were disappointed to learn that the owners of an important community website, MountainProject.com, were abusing copyright to try to shut down another site OpenBeta.io. The good news is that OpenBeta’s creator is not backing down—and EFF is standing with him.

Viet Nguyen, a climber and coder, created OpenBeta to bring open source software tools to the climbing community. He used Mountain Project, a website where climbers can post information about climbing routes, as a source of user-posted data about climbs, including their location, ratings, route descriptions, and the names of first ascensionists. Using this data, Nguyen created free, publicly available interfaces (APIs) that others can use to discover new insights about climbing—anything from mapping favorite crags to analyzing the relative difficulty of routes in different regions—using software of their own.

Rock climbers get a lot of practice at falling hard, taking a moment to recover, and continuing to climb. Mountain Project should take a lesson from their community: dust off, change your approach, and keep climbing.

The Mountain Project website is built on users’ contributions of information about climbs. Building on users’ contributions, Mountain Project offers search tools, “classic climbs” lists, climbing news links, and other content. But although the site runs on the contributions of its users, Mountain Project’s owners apparently want to control who can use those contributions, and how. They sent a cease-and-desist letter to Mr. Nguyen, claiming to “own[] all rights and interests in the user-generated work” posted to the site, and demanding that he stop using it in OpenBeta. They also sent a DMCA request to GitHub to take down the OpenBeta code repository.

As we explain in our response, these copyright claims are absurd. First, climbers who posted their own beta and other information to Mountain Project may be surprised to learn that the website is claiming to “own” their posts, especially since the site’s Terms of Use say just the opposite: “you own Your Content.”

As is typical for sites that host user-generated content, Mountain Project doesn’t ask its users to hand over copyright in their posts, but rather to give the site a “non-exclusive” license to use what they posted. Mountain Project’s owners are effectively usurping their users’ rights in order to threaten a community member.

And even if Mountain Project had a legal interest in the content, OpenBeta didn’t infringe on it. Facts, like the names and locations of climbing routes, can’t be copyrighted in the first place. And although copyright might apply to climbers’ own route descriptions, OpenBeta’s use is a fair use. As we explained in our letter:

The original purpose of the material was to contribute to the general knowledge of the climbing community. The OpenBeta data files do something more: Mr. Nguyen uses it to help others to learn about Machine Learning, making climbing maps, and otherwise using software to generate new insights about rock climbing.

In other words, a fair use.

Rock climbers get a lot of practice at falling hard, taking a moment to recover, and continuing to climb. Mountain Project blew it here by making legally bogus threats against OpenBeta. We hope they take a lesson from their community: dust off, change your approach, and keep climbing.

Categorieën: Openbaarheid, Privacy, Rechten

Aangeklaagd worden door je (oud) werkgever voor een hobbyproject, kan dat?

IusMentis - 25 maart 2021 - 8:13am

Een beetje mysterieus bericht bij Tweakers: De motivatie om deze topic te starten komt naar aanleiding van een bericht [link weggehaald]. Kort samengevat: Dennis en Ronald werkten bij een softwarebedrijf. Ze waren met een hobby-project bezig en hun (inmiddels) oud-werkgever klaagt ze aan voor 1 miljoen. Gebeuren dit soort zaken wel vaker? Ik ben nu zelf ZZP’er maar zal binnenkort in loondienst beginnen, en heb veel ICT-projectjes lopen waar ik aan werk. Vrijwel ieder arbeidscontract van programmeurs, developers en aanverwante jobs heeft een concurrentieverbod: niet tijdens het dienstverband (dus ook niet op zaterdag op je eigen laptop) dingen doen die direct concurreren met de werkgever. Dat is rechtsgeldig, want een goed werknemer houdt rekening met de belangen van zijn werkgever en doet hem dus geen concurrentie aan.

Dit nog los van het (al dan niet per ongeluk) lekken van bedrijfsgeheimen of het inzetten van auteursrechtelijk beschermd materiaal van je werkgever. Want beiden kunnen zomaar gebeuren als je ~hetzelfde doet voor het werk en voor een eigen privéproject.

Je arbeidscontract kan nadere regels bevatten, bijvoorbeeld definiëren wat een “directe concurrent” is of een procedure voor toestemming. Wil je bijvoorbeeld in je eigen tijd een opensourcelibrary onderhouden die ook voor je werk relevant is, dan vraag je dus even toestemming. En doe dat álsjeblieft schriftelijk, of forward de mail met toestemming naar je privéadres.

Arbeidscontracten bevatten soms ook een “alles dat je programmeert is auteursrechtelijk van ons”. Dat is in zo brede bewoordingen niet rechtsgeldig, want je moet wel aan het contract kunnen zien om welke werken het gaat. In juridische taal: zo’n akte van overdracht moet “voldoende bepaalbaar” omschreven zijn, en “alles dat je de komende tien jaar doet” is het toppunt van vaag. Maar er zijn rechters genoeg die dan geen streep door die bepaling zetten maar gaan zeggen “wat zou wél redelijk zijn geweest” en de clausule dan zo lezen. Dus daar zul je rekening mee moeten houden.

De topicstarter heeft het over een schadeclaim van een miljoen. Dat is natuurlijk absurd, welke werknemer hééft er een miljoen. Mijn juridische nekharen gaan dan meteen overeind staan, want dat klinkt als een ex-werkgever die z’n gelijk wil afbluffen in plaats van op de inhoud discussiëren. Tegelijk zie ik ook vaak genoeg dat zo’n enorme claim een emotionele reactie is op een erg vervelende handeling van de werknemer, zoals het core product direct concurrentie aandoen mét een meegenomen klantenbestand en 80% van de architectonische kennis gedupliceerd.

Arnoud

 

Het bericht Aangeklaagd worden door je (oud) werkgever voor een hobbyproject, kan dat? verscheen eerst op Ius Mentis.

Facebook’s Pitch to Congress: Section 230 for Me, But not for Thee

As Mark Zuckerberg tries to sell Congress on Facebook’s preferred method of amending the federal law that serves as a key pillar of the internet, lawmakers must see it for what it really is: a self-serving and cynical effort to cement the company’s dominance.

In prepared testimony submitted to the U.S. House of Representatives Energy and Commerce Committee before a Thursday hearing, Zuckerberg proposes amending 47 U.S.C. § 230 (“Section 230”), the federal law that generally protects online services and users from liability for hosting user-generated content that others believe is unlawful.

The vague and ill-defined proposal calls for lawmakers to condition Section 230’s legal protections on whether services can show “that they have systems in place for identifying unlawful content and removing it.” According to Zuckerberg, this revised law would not create liability if a particular piece of unlawful content fell through the cracks. Instead, the law would impose a duty of care on platforms to have adequate “systems in place” with respect to how they review, moderate, and remove user-generated content.

Zuckerberg’s proposal calls for the creation of a “third party,” whatever that means, which would establish the best practices for identifying and removing user-generated content. He suggests that this entity could create different standards for smaller platforms. The proposal also asks Congress to require that online services be more transparent about their content moderation policies and more accountable to their users.

An Anti-Competitive Wedge

The proposal is an explicit plea to create a legal regime that only Facebook, and perhaps a few other dominant online services, could meet. Zuckerberg is asking Congress to change the law to ensure that Facebook never faces significant competition, and that its billions of users remain locked into its service for the foreseeable future.

It’s galling that at the same time Zuckerberg praises Section 230 for creating “the conditions for the Internet to thrive, for platforms to empower billions of people to express themselves online,” he simultaneously calls on Congress to change the law to prevent any innovation or competition that could disrupt Facebook’s market position. Zuckerberg is admitting that after Facebook has benefited from Section 230, he doesn’t want any other competitor to do the same. Rather than take up Facebook’s proposal, Congress should instead advance meaningful competition and antitrust reforms to curtail the platform’s dominance.

Moreover, Zuckerberg’s proposal comes just before a congressional hearing that is ostensibly about the problems Facebook has created. These problems exist precisely because of Facebook’s dominance, anti-competitive behavior, and terrible privacy and content moderation practices. So in response to Facebook’s significant failures, Zuckerberg is telling Congress that Facebook is the solution. Congress should respond: Absolutely not.

A Flawed Proposal

On the merits, Zuckerberg’s proposal — though light on specifics — is problematic for several reasons.

First, the proposal overlooks that the vast majority of online services that host user-generated content do not have the technical, legal, or human resources to create systems that could identify and remove unlawful content. As Mike Masnick at TechDirt recently wrote, the internet is made up of far more diverse and less-resourced services than Facebook. Congress must recognize that the legal rules it sets for online services will apply to all of them. Zuckerberg proposes that the required “adequate systems” be “proportionate to platform size;” but size is only one factor that might correlate to an intermediary’s ability to implement such systems. By punishing growth, a size-scaled system would also discourage the development of nonprofit intermediary models that might compete with and replace those that profit greatly off of their users’ data. What would actually be necessary is an assessment of whether each individual intermediary, based on its numerous characteristics, has provided adequate systems. This is essentially a legal negligence standard – asking the question “Has the intermediary acted reasonably?” – and such standards have historically and legally been found to be insufficiently protective of freedom of speech.

Second, Zuckerberg’s proposal seems to require affirmative pre-screening and filtering of content as an “adequate system.” As we have written, filtering requirements are inherently privacy invasive and almost always rely on faulty and nontransparent and unaccountable automation. And of course, they are extremely burdensome, even at a small scale.

Third, the standards under Zuckerberg’s proposal would be unworkable in practice and result in even greater online censorship. Content moderation at scale is impossible to do perfectly and  nearly impossible to do well. Automated tools and human reviewers make scores of mistakes that result in improper removal of users’ content. If services are required by law to have systems that remove users’ content, the result will be a world in which much greater volumes of user speech will be removed, as services would rather censor their users than risk losing their legal protections.

Fourth, the proposal would not even address the problems Facebook is now being called out for. Zuckerberg calls for Section 230 protections to be conditioned on having systems in place to remove “unlawful content”; but most of the examples he addresses elsewhere in his testimony are not illegal. Hate and violence, misinformation, and community standards for groups are largely protected speech. Platforms like Facebook may and should want to actively moderate such content. But the speech is not usually “illegal,” a narrow subset of speech unprotected by the First Amendment.

Fifth, Zuckerberg calls for a “third party” to define the “adequate systems” an intermediary must adopt. We saw a similar proposal recently with the original version of the EARN IT Act. We opposed a standards-setting body there because it was going to be dominated by law enforcement officials who desire to break end-to-end encryption. Although Zuckerberg does not identify the membership or composition of his proposed third party, we worry that any entity created to address online content moderation could similarly be captured by special interests who do not represent internet users.

Transparency, Yes Please

We appreciate that Zuckerberg is calling on online services to be more transparent and responsive to user concerns about content moderation. EFF has been actively involved in an effort to push these services to adopt a human rights framing for content moderation that includes adequate notice to its users and transparency about the platform’s practices. Yet we do not believe that any requirement to adopt these practices should be linked to Section 230’s protections. That’s why we’ve previously opposed legislation like the PACT Act, an initial version of which compelled transparency reporting. It’s also worth noting that Facebook lags behind its peers on issues of transparency and accountability for censoring its users’ speech, a 2019 EFF review found.

Zuckerberg’s proposal to rewrite Section 230 joins a long list of efforts to overhaul the law. As we have said, we analyze every fully formed proposal on its merits. Some of the proposed changes start from a place of good faith in trying to address legitimate harms that occur online. But Zuckerberg’s proposal isn’t made in good faith. Congress should reject it and move on to doing the real, detailed work that it has to do before it can change Section 230.

Categorieën: Openbaarheid, Privacy, Rechten

Statement on the Re-election of Richard Stallman to the FSF Board

We at EFF are profoundly disappointed to hear of the re-election of Richard Stallman to a leadership position at the Free Software Foundation, after a series of serious accusations of misconduct led to his resignation as president and board member of the FSF in 2019. We are also disappointed that this was done despite no discernible steps taken by him to be accountable for, much less make amends for, his past actions or those who have been harmed by them. Finally, we are also disturbed by the secretive process of his re-election, and how it was belatedly conveyed to FSF’s staff and supporters.

Stallman’s re-election sends a wrong and hurtful message to free software movement, as well as those who have left that movement because of Stallman’s previous behavior.

Free software is a vital component of an open and just technological society: its key institutions and individuals cannot place misguided feelings of loyalty above their commitment to that cause. The movement for digital freedom is larger than any one individual contributor, regardless of their role. Indeed, we hope that this moment can be an opportunity to bring in new leaders and new ideas to the free software movement.

We urge the voting members of the FSF1 to call a special meeting to reconsider this decision, and we also call on Stallman to step down: for the benefit of the organization, the values it represents, and the diversity and long-term viability of the free software movement as a whole. 

  • 1. Note: If you donate to FSF, you just become a non-voting Associate Member. Voting Members are a separate, and much smaller, category of member.
Categorieën: Openbaarheid, Privacy, Rechten

Everyone wants to encourage encryption, except for one minister

Bits of Freedom (BOF) - 24 maart 2021 - 9:52am

The Department of Justice and Security in the Netherlands seems to be holding on to the idea that it is possible to weaken encryption "just a little". Simultaneously, the parliament and a monster alliance of organizations tells the minister over and over again: it's impossible.

At the end of 2019, the minister of Justice, Ferd Grapperhaus, rocked the boat by demanding the impossible. He stated that the use of encryption “is important for the secure communication between citizen, company and government”. At the same time, he also exclaimed that "it must be simply impossible to use encryption for the exchange of images of child sexual abuse." According to the minister, this can be done by giving the police access to the encryption keys. But you can't weaken encryption "just a little", just like you can't be pregnant "just a little".

Of course, questions were raised in the House of Representatives. And of course the minister tried to reassure the members of parliament. He would "strive for a solution within the framework of the Cabinet position." That position is pretty clear: "legal restrictions on the development, availability and use of encryption are undesirable." And just like the parliament, we too were concerned. That is why we invited ourselves to a meeting with the officials on the matter. A good conversation, but not a conversation that reassured us completely.

If the minister forces companies to build in a back door, criminals will sooner or later use it.

That mistrust turned out to be common sense. In March, Dutch media reported that the Dutch government "is still working on plans to weaken the security of chat messages so that messages from suspects can be intercepted". According to them, the ministry planned to store "some sort of extra digital key in an external place, with which the chats can be decrypted". But, if the minister forces companies to build in a back door, criminals will sooner or later use it. And with that, the ministry endangers the safety of everyone.

You deem our work to be important? Consider a donation!

That could not go unanswered. A "monster alliance", as the biggest financial newspaper of the Netherlands named it, called on the Cabinet to stimulate all forms of encryption. Signatories include organizations that defend the interests of consumers and children, representatives of journalists and media companies, companies that manage the digital infrastructure in the Netherlands, experts in IT security, human rights organizations and organizations that provide access to the internet for educational institutions. An exceptional coalition, because suddenly Bits of Freedom stood side by side with traditional enemies such as Google and Facebook. It underlines the importance of encryption.

But you can't weaken encryption "just a little", just like you can't be pregnant "just a little".

A day after the launch of the call, the minister sent a letter to the House of Representatives. In the letter, the minister repeats his ideas: "we must find a solution that safeguards and balances [all] interests at the same time." And "to avoid possible misunderstandings", the minister said he intends to talk to representatives of the monster alliance. In the meantime, he promises, this (outgoing) Cabinet will not take "irreversible steps". We have to stay alert, that's for sure.

Categorieën: Openbaarheid, Privacy, Rechten

Iedereen wil stimulering encryptie, behalve één minister

Bits of Freedom (BOF) - 24 maart 2021 - 9:51am

Het ministerie van Justitie en Veiligheid lijkt vast te blijven houden aan het idee dat je encryptie wel een klein beetje kan verzwakken. En dat terwijl het parlement en een "monsterverbond" van organisaties in Nederland keer op keer de minister zegt: je kunt het wel willen, maar het kan niet.

Het rommelt al een langere tijd. Eind 2019 gooide minister Grapperhaus de knuppel in het onderhoek en zei het onmogelijke te willen. Hij stelde dat het gebruik van encryptie “belangrijk [is] voor de veilige communicatie tussen burger, bedrijf en overheid”. Tegelijkertijd zei hij ook dat het “domweg onmogelijk moet zijn om encryptie te gebruiken voor de uitwisseling van beelden van seksueel misbruik van kinderen.” Dat kan, zo denkt de minister, door de politie toegang te geven tot de encryptiesleutels. Maar je kunt encryptie niet een klein beetje verzwakken, net zoals dat je ook niet een klein beetje zwanger kunt zijn.

Natuurlijk werden daarover vragen gesteld door de Tweede Kamer. En natuurlijk probeerde de minister het parlement gerust te stellen. Hij zou "streven naar een oplossing binnen de kaders van het kabinetsstandpunt." Dat standpunt is helder: "wettelijke beperkingen aan de ontwikkeling, de beschikbaarheid en de toepassing van encryptie zijn onwenselijk." Ook wij, en velen met ons, maakte ons zorgen. Daarom nodigden we onszelf uit voor een gesprek met de ambtenaren op dit dossier. Een goed gesprek, maar niet een gesprek dat ons helemaal geruststelde.

Als de minister bedrijven dwingt om een achterdeur in te bouwen, maken criminelen daar vroeg of laat gebruik van.

Dat wantrouwen bleek gezond verstand. In maart schreef de NOS opeens: "de overheid werkt nog steeds aan plannen om de beveiliging van chatberichten af te zwakken, zodat berichten van verdachten kunnen worden onderschept." Volgens de NOS zou het ministerie daarvoor "op een externe plek een soort extra digitale sleutel worden opgeslagen, waarmee de chats kunnen worden ontsleuteld" Maar, als de minister bedrijven dwingt om een achterdeur in te bouwen, maken criminelen daar vroeg of laat gebruik van. En daarmee brengt het ministerie de veiligheid van iedereen in gevaar, ook in Nederland.

Vind je ons werk belangrijk? We kunnen je steun goed gebruiken

Dat kon niet onbeantwoord blijven. Een "monsterverbond", zoals het Financieel Dagblad het noemde, riep het kabinet op om alle vormen van encryptie te stimuleren. En dus niet af te breken. Onder de ondertekenaars zijn organisaties die opkomen voor de belangen van consumenten en kinderen, vertegenwoordigers van journalisten en mediabedrijven, bedrijven die de digitale infrastructuur in Nederland beheren, experts in de beveiliging daarvan, mensenrechtenorganisaties en organisaties die onze onderwijsinstellingen voorzien van internet. Een uitzonderlijke coalitie, want opeens stond Bits of Freedom zij aan zij met traditionele tegenpolen zoals Google en Facebook. Het onderstreept het belang van de encryptie.

Je kunt encryptie niet een klein beetje verzwakken, net zoals dat je ook niet een klein beetje zwanger kunt zijn.

Een dag later stuurde de minister een brief naar de Tweede Kamer. Een brief uit het niets, dat zegt iets. In de brief herhaalt de minister zijn ideeën: "we moeten een oplossing vinden die [alle] belangen tegelijkertijd waarborgt alsook in evenwicht brengt." En "om mogelijke misverstanden te voorkomen" zegt de minister van plan te zijn om in gesprek te gaan met vertegenwoordigers van het monsterverbond. In tussentijd zal dit (demissionaire) kabinet geen "onomkeerbare stappen" zetten. We wachten maar weer eens af.

Categorieën: Openbaarheid, Privacy, Rechten

Hoe zwaar weegt gezichtsherkenning in het strafrecht?

IusMentis - 24 maart 2021 - 8:15am

Het lijkt erop dat degene die op 5 augustus 2017 om 2.31 uur bij de geldautomaat is gefilmd, ook in de politiedatabase staat: Thomas. Zo introduceert Nu.nl een strafzaak waarin gezichtsherkenning door het politiesysteem CATCH centraal stond in het bewijs. Nadat ook twee onderzoekers de gezichten met elkaar vergelijken, concludeert het Centrum voor Biometrie namelijk dat Thomas veel overeenkomsten en geen significante verschillen vertoont met de persoon die om half drie ’s nachts pint. Hebbes, zegt de statistiek. Nope, zegt de rechtbank Den Bosch.

De strafzaak (vonnis) gaat over een hele trits feiten, niet alleen een keer pinnen met andermans pinpas, maar ook witwassen en lidmaatschap van een criminele organisatie. De rechtszaak is namelijk onderdeel van een groter onderzoek naar een bende die bankrekeningen plundert. En kennelijk is ‘Thomas’ (de naam is nep) de leider van dat netwerk want hij heeft statistisch gezien gepind met een gestolen pas?

Herkennen van mensen van foto’s is natuurlijk altijd lastig. Maar hier werd niet door menselijke getuigen of rechercheurs gekeken; het gaat om een automatisch gezichtsherkenningssysteem dat CATCH heet. De cijfers zijn schokkend: jaarlijks gaan zo’n duizend foto’s van verdachten door de database met 1.3 miljoen mensen. En dat levert dan 98 keer een match op. Nee, niet 980 of 98%, acht-en-negentig. Net geen honderd. Ja, ik val ook van mijn stoel.

Waarschijnlijk komt dat lage aantal omdat de meeste beveiligingscamera’s de kwaliteit van een aardappel hebben, als ik de beelden van Opsporing Verzocht mag geloven. Plus, veel criminelen weten natuurlijk dat ze hun gezicht moeten bedekken om niet te makkelijk herkend te worden. En men zal vast ook alleen een match willen geven als het systeem het heel zeker weet.

Maar hoe zeker is zeker? Dat weten we niet, en dat is ook fundamenteel lastig. Al is het maar vanwege de vraag of de werkelijke dader wel in het systeem zit. Anders krijg je gewoon “de best matchende persoon is deze” en als dat ook een hoog percentage betrouwbaarheid geeft, dan is de conclusie “dit is hem” snel gelegd. Natuurlijk kijken er dan nog mensen naar, maar “even checken, dit is hem toch” is heel wat anders dan “hier zijn duizend gezichten, welke is het”.

De rechtbank is er dan ook héél snel klaar mee: De rechtbank is van oordeel dat in dit geval de ‘hit’ op verdachte in het zgn. CATCH-systeem (Centrale Automatische Technologie voor herkenning) onvoldoende is om te concluderen dat verdachte – buiten redelijke twijfel – als pinner kan worden aangemerkt. De opmerking dat twee onderzoekers zagen dat er veel overeenkomsten waren en geen significante afwijkingen, acht de rechtbank niet zodanig overtuigend dat de ‘hit’ als basis voor een bewezenverklaring kan dienen. Nu er buiten de herkenning geen andere bewijsmiddelen voorhanden zijn die verdachte verbinden aan een van de ten laste gelegde feiten, is de rechtbank van oordeel dat verdachte dient te worden vrijgesproken.

Bij een strafzaak moet het gaan om wettig en vooral overtuigend bewijs. Oftewel, geen redelijke twijfel. Enkel “hij lijkt best goed” is niet hetzelfde als “er is geen twijfel dat dit hem is”. Tussen de regels door lees ik dat de rechtbank alléén een fotoherkenning te weinig vindt. Had zijn telefoon even uitgepeild, een vingerafdruk genomen of iets anders dat hem op de plaats delict zet. Maar dit is echt te weinig.

Arnoud

Het bericht Hoe zwaar weegt gezichtsherkenning in het strafrecht? verscheen eerst op Ius Mentis.

Facebook Treats Punk Rockers Like Crazy Conspiracy Theorists, Kicks Them Offline

Facebook announced last year that it would be banning followers of QAnon, the conspiracy theorists that allege that a cabal of satanic pedophiles is plotting against former U.S. president Donald Trump. It seemed like a case of good riddance to bad rubbish.

Members of an Oakland-based punk rock band called Adrenochrome were taken completely by surprise when Facebook disabled their band page, along with all three of their personal accounts, as well as a page for a booking business run by the band’s singer, Gina Marie, and drummer Brianne.

Marie had no reason to think that Facebook’s content moderation battle with QAnon would affect her. The strange word (which refers to oxidized adrenaline) was popularized by Hunter Thompson in two books from the 1970s. Marie and her bandmates, who didn’t even know about QAnon when they named their band years ago, picked the name as a shout-out to a song by a British band from the 80’s, Sisters of Mercy. They were surprised as anyone that in the past few years, QAnon followers copied Hunter Thompson’s (fictional) idea that adrenochrome is an intoxicating substance, and gave this obscure chemical a central place in their ideology.

The four Adrenochrome band members had nothing to do with the QAnon conspiracy theory and didn’t discuss it online, other than receiving occasional (unsolicited and unwanted) Facebook messages from QAnon followers confused about their band name.

But on Jan. 29, without warning, Facebook shut down not just the Adrenochrome band page, but the personal pages of the three band members who had Facebook accounts, including Marie, and the page for the booking business.  

“I had 2,300 friends on Facebook, a lot of people I’d met on tour,” Marie said. “Some of these people I don’t know how to reach anymore. I had wedding photos, and baby photos, that I didn’t have copies of anywhere else.”

False Positives

The QAnon conspiracy theory became bafflingly widespread. Any website host—whether it’s comments on the tiniest blog, or a big social media site—is within its rights to moderate that QAnon-related content and the users who spread it. Can Facebook really be blamed for catching a few innocent users in the net that it aimed at QAnon?

Yes, actually, it can. We know that content moderation, at scale, is impossible to do perfectly. That’s why we advocate companies following the Santa Clara Principles: a short list of best practices, that include numbers (publish them), notice (provide it to users in a meaningful way), and appeal (a fair path to human review).

Facebook didn’t give Marie and her bandmates any reason that her page went down, leaving them to just assume it was related to their band’s name. They also didn’t provide any mechanism at all for appeal. All she got was a notice (screenshot below) telling her that her account was disabled, and that it would be deleted permanently within 30 days. The screenshot said “if you think your account was disabled by mistake, you can submit more information via the Help Center.” But Marie wasn’t able to even log in to the Help Center to provide this information.

Ultimately, Marie reached out to EFF and Facebook restored her account on February 16, after we appealed to them directly. But then, within hours, Facebook disabled it again. On February 28, after we again asked Facebook to restore her account, it was restored.

We asked Facebook why the account went down, and they said only that “these users were impacted by a false positive for harmful conspiracy theories.” That was the first time Marie had been given any reason for losing access to her friends and photos.

That should have been the end of it, but on March 5 Marie’s account was disabled for a third time. She was sent the exact same message, with no option to appeal. Once more we intervened, and got her account back—we hope, this time, for good.

This isn’t a happy ending. First, users shouldn’t have to reach out to an advocacy group in the first place to get help in challenging a basic account disabling. One hand wasn’t talking to the other, and Facebook couldn’t seem to stop this wrongful account termination.

Second, Facebook still hasn’t provided any meaningful ability to appeal—or even any real notice, something they explicitly promised to provide in our 2019 “Who Has Your Back?” report

Facebook is the largest social network online. They have the resources to set the standard for content moderation, but they're not even doing the basics. Following the Santa Clara Principles—Numbers, Notice, and Appeal—would be a good start. 

Categorieën: Openbaarheid, Privacy, Rechten

US-Forscher*innen verlangen Anpassung des Urheberrechts während der Pandemie-Notlage

iRights.info - 23 maart 2021 - 1:05pm

Die Restriktionen geistigen Eigentums temporär außer Kraft setzen, um die Verbreitung des Covid19-Virus einzudämmen – diese Forderung richten derzeit mehr als 100 Organisationen sowie knapp 150 Einzelpersonen in einer gemeinsamen Erklärung an die Welthandelsorganisation (WTO).

Initiiert wurde die Verzichtserklärung von Forscher*innen des College of Law der American University in Washington. Seit dem gestrigen Montag ist sie offiziell veröffentlicht.

Der Zugang zu wissenschaftlichem Wissen sei essentiell, um die Pandemie auf globaler Ebene zu bekämpfen, so die Erklärung. Die Regelungen geistigen Eigentums in vielen Ländern, darunter vor allem Urheber- und Patentrechte, würden diesen Zugang jedoch erheblich erschweren oder sogar unmöglich machen.

Die Erklärung, die derzeit nur auf Englisch vorliegt, appelliert daher deutlich an die WTO, zur Bekämpfung der Pandemie zumindest zeitweise einen flexiblen Umgang mit den genannten Schutzrechten zuzulassen. Weiter heißt es:

„In zu vielen Ländern ermöglichen Urheberrechtsgesetze keinen digitalen Fernzugriff auf wesentlich benötigte Werke. Der Einsatz im Bildungsbereich beschränkt sich zu oft auf Vorgänge innerhalb der Bildungseinrichtungen oder auf den persönlichen Unterricht vor Ort. Die Nutzung von Bibliotheksangeboten und anderen öffentlichen Repositorien ist zu oft an die Räumlichkeiten der jeweiligen Institutionen geknüpft.“ (Übersetzung G.F., Anm. d. Red.)

Damit spricht die Erklärung ein zentrales Problem in der Bereitstellung und Nutzung von urheberrechtlich geschützten Bildungsmaterialien wie Büchern, Studien, Datensätzen und weiteren Ressourcen an. In vielen Fällen sind die Regelungen auf den Gebrauch in den jeweiligen Gebäuden, zum Beispiel in den Räumen der Bibliothek oder auf dem Campus, festgelegt.

Forscher*innen und Studierende erleben daher seit Beginn der Pandemie starke Einschränkungen im Zugang zu wissenschaftlichem Wissen, etwa, wenn sie im Home Office einen wissenschaftlichen Aufsatz benötigen, der allerdings hinter der Paywall eines Verlags nicht öffentlich zugänglich ist.

Zugang zu Wissen an Pandemielage anpassen

Die Mehrheit der nationalen Urheberrechtsgesetze sei nicht flexibel genug, um Forschung und Lehre sowie die öffentliche Nachfrage nach Informationen und Wissen rechtssicher in den digitalen Raum zu verlagern. Genau das mache die derzeitige Notlage der Pandemie jedoch erforderlich.

Die Mitglieder der WTO sollen daher, so die Forderung weiter, die Verzichtserklärung unterstützen, um die Urheberrechtsbestimmungen des TRIPS-Abkommens zur Regelung des internationalen Handels an die außergewöhnliche Lage der Pandemie anzupassen beziehungsweise zeitweise auszusetzen.

Dies beinhaltet: Urheberrechtliche Regelungen müssten so ausgelegt werden, dass menschenrechtliche Verpflichtungen während der Pandemie Vorrang hätten,

„einschließlich des Rechts, Informationen zu suchen, zu erhalten und weiterzugeben, auf Bildung und freie Teilnahme am kulturellen Leben und Teilhabe am wissenschaftlichen Fortschritt und seinen Vorteilen, unter gleichzeitigem Schutz der moralischen und materiellen Interessen der Urheber*innen.“ (Übersetzung G.F., Anm. d. Red.)

Daneben fordern die Unterzeicher*innen angemessene Einschränkungen und Ausnahmen von geistigen Eigentumsrechten für digitale Umgebungen sowie entsprechende rechtliche Erweiterungen.

Die Erklärung ist von zahlreichen Institutionen aus dem Bildungs- und Universitätsbereich unterzeichnet, darunter große Bibliotheks- und Forschungsverbände aus den USA oder Creative Commons-Landesorganisationen. Auch viele natur- und rechtswissenschaftliche Forscher*innen unterstützen die Erklärung.

Diverse Unterstützungsstatements sind auf der Website infojustice.org einsehbar, begleitet wurde die Veröffentlichung von einer Online-Pressekonferenz.

Offenlegung: Der iRights e. V., Anbieter von iRights.info, sowie Georg Fischer, Verfasser dieses Beitrags, haben die oben genannte Verzichtserklärung ebenfalls unterzeichnet.

Pagina's

Abonneren op Informatiebeheer  aggregator - Rechten