In light of the SESTA/FOSTA laws, which effectively remove a lot of protections for social/forum/ugc webmasters (Section 230 safe harbor). Making webmasters liable for what their users do.
It might be wise to support using an image recognition API as one solution for improving protection. In order to automate blocking uploads of explicit content like (unsafe, nudity, gore etc.).
Also improve protection from exploits like uploading inappropriate images in drafts, then hotlinking to those images elsewhere. Using it like free anonymous image hosting. I’m not sure how exploitable this is with Discourse, but it looks like with default settings, it could be exploitable for 180 days after draft creation without the webmaster knowing what has been uploaded (delete drafts older than n days).
Es wäre wirklich toll, alle über die Google Cloud Vision API auf Discourse hochgeladenen Bilder zu prüfen, um für Adsense sicher zu bleiben. Das haben wir auf unserer früheren Website gemacht und haben niemals Nackt- oder Gore-Bilder hochgeladen bekommen.
Google stellt eine Ruby-Gem bereit:
Ein potenzielles Plugin sollte in den Haupt-Prozess des Bild-Uploads von Discourse für alle Bilder (Beiträge, Avatare, Profil-Hintergründe usw.) eingreifen und Bilder ablehnen, die unerlaubte Inhalte enthalten:
Ich meine, vor dem Hochladen würde das Prüfen des Bildes durch ein POST an die API und das Erhalten eines grünen Flags doch einige Zeit in Anspruch nehmen, oder?
Nun, der Upload-Prozess für Inline-Bilder ist meiner Meinung nach bereits asynchron. Und die Google-API ist sehr schnell.
Andererseits wäre ich auch gerne bereit, Bilder zu überprüfen, nachdem ein Benutzer einen neuen Beitrag über einen externen Webhook (Discourse-API) veröffentlicht hat, und den Beitrag des Benutzers zu ändern (z. B. das Bild entfernen und durch den Text “BILD VOM ADMINISTRATOR ENTFERNT” ersetzen). Dieser Teil scheint mit der API möglich zu sein, aber ich kann keine Referenz finden, wie man das „schlechte
Ich würde mich freuen, dies als bezahlten Auftrag zu übernehmen. Könntest du mir beim API-Teil helfen, also welche API zur Erkennung von anstößigen Inhalten usw. verwendet wird?
@Terrapop – Etwas, das du berücksichtigen solltest, ist die Genauigkeit der Erkennung. Es kann sinnvoll sein, einen Teil der blockierten Inhalte einsehen zu können, um sicherzustellen, dass die Einstellungen für „POSSIBLE
Wir haben die API auf unserer aktuellen Website getestet und wissen, welche Ebenen für uns gut funktionieren.
@fzngagan entwickelt das Plugin für uns als Open-Source-Projekt. Sobald es fertig ist, können Sie eine Option ändern und per Pull Request einreichen, die nicht direkt ablehnt, sondern stattdessen in die Moderator-Warteschlange weiterleitet.
Ich finde die Idee toll, die Wahrscheinlichkeit mit den Prüfqueues zu verknüpfen, wenn das Bild Teil des Beitrags ist. Ich nehme gerne Sponsoring oder PR in dieser Hinsicht an.
Wenn das als optionale Ergänzung möglich ist, ist das für mich natürlich in Ordnung.
Wir haben die API in unserer früheren Community über längere Zeit genutzt und kennen die für uns akzeptablen Grenzwerte. In den meisten Fällen war die API korrekt, wenn sie etwas ablehnte, und der Nutzer lud einfach ein weniger schwerwiegendes Bild hoch.
Außerdem wollte ich nicht nur Beiträge, sondern auch das Hochladen von Avataren und Profil-Hintergrundbildern prüfen lassen. Weißt du, ob dafür ebenfalls eine Warteschlangen-Option möglich ist?