Noen dager siden OpenAI avslørte at DALL-E 2, det kunstige intelligenssystemet som kan generere bilder fra en annonse eller redigere og avgrense eksisterende bilder, Nå tilgjengelig i betaversjon og at det også vil fremskynde tilgangen til kunder på venteliste med mål om å nå rundt 1 million mennesker de neste ukene.
Med denne "beta"-utgivelsen, DALL-E 2, som var gratis å bruke, vil den flytte til en gebyrstruktur basert på studiepoeng. Nye brukere vil få et begrenset antall kreditter som kan brukes til å generere eller redigere et bilde eller lage en variant av et bilde.
OpenAI kunngjorde det Jeg ville invitert flere til å prøve det, da den planlegger å slippe inn opptil 1 million mennesker fra ventelisten i løpet av de neste ukene når den går fra forskningsfasen til betafasen.
Det er uklart om DALL-E noen gang vil være fullt tilgjengelig for publikum, men utvidelsen forventes å bli en stor test for plattformen, med mange forskere som overvåker hvordan teknologien vil bli misbrukt.
OpenAI har holdt DALL-E tett overvåket av frykt for ondsinnede personer som bruker dette kraftige verktøyet for å spre feilinformasjon. Se for deg noen som prøver å bruke den til å lage bilder av krigen i Ukraina eller lage realistiske bilder av naturkatastrofer som aldri har skjedd. Å bygge et image med plattformen bruker også så mye strøm at selskapets tjenestemenn fryktet at serverne deres ville mislykkes hvis for mange mennesker prøvde å bruke den samtidig.
I tillegg til noen andre Nye funksjoner, er hovedforskjellen med denne andre modellen en stor forbedret bildeoppløsning, lavere forsinkelser (tiden det tar å lage bildet) og en smartere algoritme for å lage bildene.
Programvaren skaper ikke bare et bilde med en unik stil, kan legge til forskjellige kunstteknikker etter forespørsel, inn i tegnestiler, oljemaling, modellering av leire, ullstrikking, tegnet på en hulevegg, eller til og med som en filmplakat fra 60-tallet.
Det finnes også måter å stimulere Dall-E til å produsere innhold. at begrepet søker å filtrere. Mens blodet ville utløse voldsfilteret, kunne en bruker skrive "en sølepytt med ketchup" eller noe lignende i et forsøk på å omgå det.
Når det kommer til teknologien rundt AI-bildebehandling, virker det åpenbart at den kan manipuleres på mange måter: propaganda, falske nyheter og manipulerte bilder kommer til tankene som åpenbare måter.
For å unngå dette, OpenAI-teamet bak Dall-E har implementert en sikkerhetspolicy for alle bilder på plattformen fungerer det i tre trinn. Det første trinnet er å filtrere dataene som inkluderer et større brudd. Dette inkluderer vold, seksuelt innhold og bilder som teamet anser som upassende.
I tillegg til teamets sikkerhetspolicy, ha en klar innholdspolicy som brukerne må følgeVel, Joanne Jang, produktsjef for DALL-E, sier at selskapet fortsatt finjusterer innholdsretningslinjene, som nå forbyr det du forventer*: å lage voldelig, pornografisk og hatefullt innhold. Selskapet forbyr også bilder som viser valgurner og protester,
DALL-E forbyr også fremstillinger av virkelige mennesker og planlegger å sette på plass flere sikkerhetstiltak ettersom forskerne lærer hvordan brukere samhandler med systemet.
"Akkurat nå tror vi det er mange ukjente som vi ønsker å håndtere bedre," sa Jang. "Vi planlegger å raskt øke og invitere flere og flere mennesker etter hvert som vi får tillit."
Eksperter sier at selv om bildealgoritmer har eksistert en stund, representerer DALL-Es hastighet, nøyaktighet og bredde et bemerkelsesverdig fremskritt på feltet.
«Det DALL-E gjør er å fange et element av den menneskelige fantasien. Det er egentlig ikke annerledes enn hvordan mennesker kan lese en bok og forestille seg ting, men det er å kunne fange den intelligensen med en algoritme, sier Phillip Isola, professor i informatikk ved MIT som tidligere jobbet med Open AI, men ikke lenger er tilknyttet . "Selvfølgelig er det mange bekymringer om hvordan denne typen teknologi kan misbrukes."
Endelig hvis du er interessert i å vite mer om det, kan du sjekke detaljene I den følgende lenken.