Løsningen er foreløpig i en betaversjon og er et utgangspunkt for videreutvikling. Vi inviterer KulturITs eiermuseer til å teste betaversjonen slik at vi sammen kan høste erfaringer til veien videre. Målsettingen er at tjenesten skal være tilgjengelig for eierne uten løpende kostnader til og med utgangen av 2024.
Museumsassistenten Mai er et pilotprosjekt for KulturIT. Dette innebærer at vi må gjøre erfaringer om kostnader og funksjonalitet, og derfor kan det bli endringer i pilotperioden. Videreføring og videreutvikling etter 2024 skjer med forbehold om bærekraftig finansiering.
Hvordan prøve Museumsassistenten Mai?
Du kan prøve ut løsningen på flere måter, inkludert til språkoversettelse, forbedring og strukturering av tekst, forslag til ideer, søking i brukerveiledninger, samt tilgang til veiledere innenfor samlingsforvaltning.
Vi håper løsningen vil bidra til at du kan utforske nyttige bruksområder og muligheter for effektivisering i arbeidshverdagen, med støtte fra verktøy med kunstig intelligens.
Hvordan fungerer museumsassistenten Mai?
Mens Museumsassistenten Mai er ute i betaversjon, drives den av ChatGPT 3.5.
Løsningen er tilgjengeliggjort med Microsoft Azure OpenAI. Det betyr at dataene som behandles i løsningen, håndteres i samsvar med Microsofts standardprosedyrer og retningslinjer. Alle henvendelser behandles på servere lokalisert i Europa, og ingen data deles med andre av Microsofts kunder. De brukes heller ikke til å forbedre språkmodellene.
Azure OpenAI-tjenesten er en standard løsning fra Microsoft som kan tilpasses ulike virksomheter. Microsoft vertsbaserte OpenAI-modeller i Azure-miljøet sørger for at tjenesten ikke har noen interaksjon med andre tjenester, inkludert OpenAI-produkter som ChatGPT eller OpenAI-APIen.
Slik er Mai tilpasset museene
For å gjøre tjenesten mest mulig relevant for museumssektoren, har vi som et utgangspunkt lagt til rette for at en skal kunne søke i dokumentene vi lister nedenfor. Husk imidlertid at du alltid må validere informasjonen du mottar gjennom KI-tjenester for å sikre nøyaktighet og pålitelighet.
Brukerveiledninger for Primus 10, Primus 7.5 og PrimusWin
Stortingsmeldinger som kan være relevante for museene
Museenes strategidokumenter
Veiledere innen samlingsforvaltning fra Kulturdirektoratet
ABM-skrifter
ICOMs etiske regelverk
Råd om bruk av KI-skapt innhold
Her har vi utformet noen råd til deg som skal bruke KI-skapt innhold i profesjonell sammenheng. Rådene baserer seg på anbefalinger fra Teknologirådet, DigitalNorway og Digitaliseringsdirektoratet (Digdir).
Faktasjekk ALLTID det KI-skapte
KI-verktøy gir oss ingen faktagaranti. Tekst- og medieinnhold der KI er brukt bør derfor aldri publiseres til publikum uten en sjekk av fakta og faglig kvalitet. Museenes troverdighet som sikre og gode kilder til kunnskap, er avgjørende for samfunnets tillit. Vær obs på at også illustrasjoner kan ha faktafeil og/eller slagside. Sørg for å ha rutiner for faktasjekking av KI-generert tekst og innhold.
Ta stilling til åpenhet og merking ved bruk av KI i kommunikasjon
Hvis vi bruker KI-verktøy til hjelp i arbeid med innhold til nettsider eller andre kanaler; når er det riktig å opplyse mottakeren om dette? Nettavisene opplyser gjerne om at KI har oppsummert en artikkel, men at informasjonen også er kvalitetssikret av mennesker. Åpenhet er med på å bygge tillit, og uklarhet om avsender kan bidra til det motsatte. Ta stilling til merking av innhold med ulik grad av KI-bruk.
Bevar museets stemme
Allerede i 2026 kan hele 90 prosent at innholdet på internett være kunstig skapt, ifølge Europol. Hvordan skille seg ut som ekte, menneskelig og gjenkjennelig for publikum? Signaler som sendes med bilder og tekst, er en del av museets profil. KI-generert innhold kan se proft og polert ut, men husk at det ikke er laget med ditt publikum i tankene. Det er du som kjenner ditt publikum best. Inkluder et blikk på dette i kvalitetssikring av innhold der KI er brukt.
Vær også oppmerksom på at KI-generert innhold kan:
… være rettighetsbelagt, dersom det likner eksisterende verker i for stor grad.
… bryte med lover og regler: Produktene KI genererer er avhengig av dataene det har trent seg på. Hvis dataene for eksempel har kjønnsdiskriminerende eller rasistiske mønstre, kan KI-produktet gjenspeile disse. Husk at det er vi – brukerne – som står ansvarlig, ikke KI.