Äntligen föräldrakontroll och webbfilter till barnens privata enheter - Qustodio
Skanna din skolas Microsoft OneDrive eller Google Drive efter olämpliga eller skadliga bilder i fyra olika kategorier.
När en potentiellt skadlig bild hittas flaggar Cloud Scan den till skyddsteamet för granskning.
Utsedda personal meddelas att granska innehåll och välja att tillåta eller blockera åtkomst till det.
Fullständig kontextuell data- och bildkategorisering gör att utsedd personal kan se, bedöma och agera omedelbart. Bilder kan göras säkra inom några minuter utan behov av ytterligare undersökning, vilket resulterar i minimala störningar.
Cloud Scan följer UK Safer Internet Centres lämpliga övervakningsanvisningar. Den tar upp riskkategorier förknippade med bilder identifierade i KCSIE inklusive risk och porr.
Utsedda personal får fullständig kontextuell data för att fatta omedelbara beslut utan att behöva IT-stöd, vilket sparar värdefull tid.
Kategori
Beskrivning
Skildringar av grafiskt våld och skador till följd av olyckor och ohyggliga handlingar.
Skildringar av sexuell aktivitet, nakenhet, erotik
Skildringar av sexuellt suggestivt beteende eller underhållning
Vapen, krigsvapen, knivar eller någon anordning som är avsedd att orsaka kroppsskada eller fysisk skada (t.ex. sprängämnen)
Cloud Scan ger också information om den flaggade bilden, som uppladdarens namn och datumet då den laddades upp. För bilder som flaggas för första gången visar Cloud Scan antalet användare dessa bilder har delats till.
Cloud Scan kategoriserar bilder efter deras avbildade teman och innehåll, och vissa bilder kan tilldelas oväntade kategorier.
När den identifierar potentiellt osäkra bilder, drar inte Cloud Scan slutsatser om användarens avsikt eller karaktär.
När den flaggar en bild gör den det bara baserat på vad den visar. Den tar inte hänsyn till kulturlandskapet eller rådande seder där skolan är verksam. Till exempel kan en bild flaggas under vapen även om den bara visar en rekreationsaktivitet som paintball. Det är därför det är upp till eran personal att besluta om att behålla eller ta bort bilder baserat på er policy.
Viktig: Din organisation är ansvarig för att se till att deras användare – och personalen som granskar flaggat innehåll – följer policyer, lagar och förordningar om informationsteknik och säkerhet, datahantering och integritet.
Organisationer är också ansvariga för att varna sin personal om potentiellt störande teman i flaggade bilder och för att ge ytterligare stöd vid behov.
Cloud Scan tillhandahåller information som hjälper dig att granska bilder på rätt sätt.
De visar när dessa bilder delas, vilka typer av flaggade bilder som delas och hur många användare som har tillgång till dessa bilder.
Namn
Användarens eller uppladdarens namn
Användarens skola eller organisation
Molnskanningskategorin som tilldelats bilden
En miniatyr av den flaggade bilden. Miniatyrer hjälper Safeguarding Leads att snabbt skanna de flaggade bilderna och radera eller markera dem som säkra samtidigt. Notera: Cloud Scan visar inga miniatyrer för bilder som kategoriseras som porr.
Antalet användare med behörighet att se bilden.
Datum och tid Cloud Scan skannade bilden. Datum och tid följer organisationens tidszon.
Bildens skannings- eller granskningsstatus. Nya bilder är taggade "Ny" och granskade bilder är taggade "Raderad" eller "Säker".
Bildfilens storlek. Filstorleksgränser ställs in i din molnlagringsleverantör.
Bildens filformat. Cloud Scan inspekterar bland annat JPEG, PNG, GIF, BMP, TIFF, SVG, HEIC, WEBP, ICO, RAW.
Datumet då användaren laddade upp bilden.
Bildens URL i molnlagringen. Om du väljer denna länk visas bilden i sin helhet.
Varning: Vissa bilder kan visa upprörande teman och situationer.
Cloud Scan kör en genomsökning av din molnlagring en gång om dagen.
Genom att använda den senaste tekniken är den utbildad för att fånga upp alla potentiellt skadliga bilder.
Cloud Scan granskar och kategoriserar sedan alla bilder som hittas som kan innehålla skadliga eller icke-godkännda bilder och varnar utsedda personal inom skolan via e-post.
Utsedda personal granskar alla hittade bilder och får välja, om bilden ska raderas eller markeras som säker.
Även andra åtgärder som polisanmälan m.m. kan behöva göras.