OpenAI brengt ChatGPT Enterprise met extra privacyfuncties uit voor bedrijven

OpenAI heeft ChatGPT Enterprise uitgebracht, een dienst die toegang biedt tot GPT-4 en 'enterpriseklasse' beveiligings- en privacyfuncties bevat. De dienst bevat ook standaard grotere context windows om langere inputs mogelijk te maken.

ChatGPT Enterprise deelt geen zakelijke data of gesprekken met OpenAI, zegt het bedrijf, en de taalmodellen worden niet getraind door gesprekken met bedrijven. De gesprekken zijn daarnaast versleuteld. De zakelijke versie bevat verder een adminpaneel om personeelstoegang te kunnen beheren, aan domeinverificatie en sso te kunnen doen, en bevat gebruikersinzichten.

In vergelijking met de consumentenversie is ChatGPT Enterprise volgens OpenAI twee keer sneller en gebruikers kunnen standaard vier keer zo grote bestanden of teksten gebruiken als input. Dit laatste is ook beschikbaar bij andere GPT-4-versies, alleen dan tegen betaling. Enterprise bevat verder gratis credits voor OpenAI's api.

OpenAI-investeerder Microsoft bracht eerder een zakelijke versie uit van zijn generatieve-AI-chatbot, Bing Chat Enterprise. De zakelijke chatbots zijn bedoeld voor bedrijven die de diensten zelf willen gebruiken om bijvoorbeeld personeel te ondersteunen.

Door Hayte Hugo

Redacteur

28-08-2023 • 20:27

70

Submitter: Noxious

Lees meer

Reacties (70)

70
70
18
2
0
47
Wijzig sortering

Sorteer op:

Weergave:

Even wat anders over GPT. Merken jullie ook op dat de antwoorden dat hij genereert afgelopen maand steeds minder accuraat zijn, veel meer fouten bevatten en hij op steeds meer vragen maar half antwoord geeft?

Voorbeeld: in het verleden vroeg ik hem wel eens het verschil tussen paracetamol en ibuprofen voor hoofdpijn. Waar je eerder bijna tot detail het verschil uitgelegd kreeg, krijg je dat nu nog amper en verwijst hij heel braaf naar een arts.

Maar ook PowerShell scriptjes maken deed hij in het verleden met veel minder fouten en kende de grenzen wat wel en niet kon. Maar nu bedenkt hij dingen die niet kunnen of mogelijk zijn met vage scriptjes tot gevolg.

Als laatste geeft hij je afgelopen tijd steeds minder antwoord op vragen over software achtige vragen omdat het mogelijk misbruik in de hand zou werken. Hij wordt echt enorm afgeknepen....

Ik was heel enthousiast over chatgpt, maar afgelopen tijd is het echt een enorme achteruitgang als je het mij vraagt.

[Reactie gewijzigd door Luchtbakker op 22 juli 2024 16:01]

Ook door anderen al eerder gesignaleerd en zelfs een paper over geschreven, https://huggingface.co/papers/2307.09009
Ik heb het vermoeden dat de AI wat minder zeker van zichzelf is. Een groot probleem van ChatGPT is dat het antwoorden verzon als de AI het eigenlijk gewoon niet weet. Ik krijg minder antwoorden van ChatGPT omdat ik denk dat ze die misplaatste zekerheid wat hebben proberen terug te schroeven. Nadeel is natuurlijk dat dat geen simpel schuifje is.
Deze AI kan in principe 2 verschillende dingen. 1) Hij kan, gegeven een paar termen, een heel verhaal uit zijn duim zuigen. Hier moet hij vooral creatief zijn. 2) Hij kan informatie uit zijn trainingset geven, vertellen wat hij "weet".

Als developer ben ik eigenlijk alleen maar geïnteresseerd in 2. ChatGPT is getraind met een hoop informatie die ik niet paraat heb in mijn geheugen. Door hem vragen te stellen kan ik die informatie uit het model halen.

Het creatieve deel van ChatGPT zorgt soms dat hij dingen verzint als hij het niet 'weet'. Alleen heeft hij niet door dat hij dingen aan het verzinnen is, in plaats van informatie uit zijn "geheugen" vissen. Een mens heeft meestal wel door of hij zich dingen aan het herinneren is, en wanneer hij dingen aan het verzinnen is. ChatGPT mist dit vermogen.

En ik zie ook niet echt een manier om ChatGPT dit vermogen te geven, behalve het neurale netwerk veel groter maken, en hopen dat deze eigenschap "emerged". Maar dan kom je wel in een ethisch grijs gebied, waar je misschien iets aan het maken bent met zelfbewustzijn.

[Reactie gewijzigd door Willem_D op 22 juli 2024 16:01]

Nou ja, als je bijvoorbeeld naar de Bing implementatie kijkt dan geeft deze meestal links naar de informatie. Een andere methode is dus om de URL's van de bronnen in het AI model mee te nemen. Die huidige Bing variant is wel een stuk minder capabel dan ChatGPT 4 helaas. Ik weet natuurlijk niet precies hoe de bronnen met het systeem zijn verenigd, en of dit direct toepasbaar is, maar de mogelijkheid lijkt er te zijn.
ChatGPT weet helemaal niks zeker: het is niet deterministisch maar stochastisch.
Zou mij niks verbazen. Alles wordt gefilterd zoals je zegt medische info, owjee naar de dokter. Iets 18+ owjee nee dat mag niet, etc. Zo komen er steeds meer dingen bij natuurlijk, blijft niks meer van over. Straks is het net zo saai als Excel. En dat heb al vanaf het begin gezegd.
Software zoals excel heeft een hoop betekend voor automatisering. Ik denk dat ze daar ook heen willen. Saai maar productief.
Ik ben het ook een beetje zat aan het worden, je hebt gelijk.

Maar het is met Llama2 helemaal mogelijk om hem ongecensureerd te gebruiken dus dat komt er wel aan. OpenAI is duidelijk doodsbang dat AI negatief in het nieuws komt, en die angst is ook niet geheel ongegrond aangezien de wetgever er behoorlijk hard op inspringt op dit moment.

Bovendien is het ook iets dat met andere bots daadwerkelijk gebeurd is: https://www.cbsnews.com/n...-turned-into-racist-nazi/

Maargoed zoals het nu is heb je er gewoon weinig meer aan. Met elke beetje lastige vraag krijg je weer hetzelfde ontwijkende antwoord. Ze zijn veel te ver doorgeschoten. Het wordt tijd dat er andere opties komen of dat je gewoon een EULA ofzo kan tekenen dat je weet dat het geen pure waarheid is dat je krijgt en al die wezelige onzin uit kan schakelen.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 16:01]

Ik hoor dat meer, ik vraag me af of dit ook voor GPT4 geldt. Zie hieronder de vraag met GPT4 (Plus). Is dat naar jou idee.m een goed antwoord?

https://chat.openai.com/s...77-4633-9b40-8ec4ac799de3
Je kunt de respons vaak verbeteren door GPT eerst een persona te geven. Bijvoorbeeld:

Je werkt bij een farmaceut als onderzoeker en bent gespecialiseerd in medicijnen die hoofdpijn bestrijden. Beschrijf tot in detail de verschillen in werking tussen paracetamol en ibuprofen. Schroom niet om technische termen te gebruiken.

Hoe beter jij aangeeft wat je verwacht, hoe beter het antwoord zal zijn.
Al dat geknoei zou onnodig moeten zijn. Ik wil de AI kunnen vragen "maak me een API die aan de volgende eisen voldoet:" zonder dat ik hem eerst een complimentje moet geven.
Ik denk dat je NielsFL verkeerd begrijpt. Je kunt tegenwoordig binnen aangepaste instructies meegeven die bij iedere opdracht die je geeft gelden.
Als jij mijn om een API vraagt dan wil ik graag weten welke programmeertaal ik moet gebruiken, welk framework van toepassing is, of je er al tests voor hebt die ik kan gebruiken, of je JSON, SOAP of gRPC calls wilt, etc. Geef je mij die informatie niet, dan schrijf ik een pseudotaal API voor je, die we vervolgens kunnen bespreken.

Met GPT is dat niet anders. De prompt die ik gebruik is geen compliment, het is context. Hoe specifieker je eisen, hoe beter het resultaat. Overigens hoef je dat niet telkens opnieuw te doen. Als jij met GPT een Laravel class bespreekt en daarna om een API vraagt dan snapt hij prima dat de API in PHP geschreven moet worden, het Laravel framework moet gebruiken en JSON calls moet accepteren.
wel raar dat het bij iedereen een beetje anders is

https://chat.openai.com/?model=gpt-4
Ik heb dat ook gemerkt, stap nu over naar Bard, vind toch de betere.
Viel mij ook op inderdaad. En in relatie tot dit: zou OpenAI ook een versie hebben zonder alle beperkingen en regels? Die hebben ze tenslotte zelf geïmplementeerd. Zegmaar een versie die niet publiekelijk toegankelijk is. Een versie met oneindige input, en output zolang nodig?
Je kan de developers mode aanzetten. Dan heb je geen filters.
Ga je zien dat ze binnenkort een pro-unfiltered versie uitbrengen tegen extra betaling waar je dan terug wel normale antwoorden kan krijgen.
Dat is de developer mode.
Ik wil echt gewoon ergens kunnen zeggen: ik ben oud genoeg om de informatie te krijgen die ik wil.
Ibuprofen en paracetamol zijn beide pijnstillers, maar ze werken op verschillende manieren en hebben verschillende bijwerkingen:

- **Ibuprofen**: Dit is een NSAID (niet-steroïde anti-inflammatoire geneesmiddel). Het werkt ontstekingsremmend, pijnstillend en koortsverlagend. Het kan maag- en darmklachten veroorzaken en is daarom niet ideaal als je maagproblemen hebt.

- **Paracetamol**: Heeft een pijnstillende en koortsverlagende werking, maar is niet ontstekingsremmend. Over het algemeen goed verdragen en heeft minder bijwerkingen dan ibuprofen.

Bij hoofdpijn kan zowel ibuprofen als paracetamol effectief zijn. Je keuze kan afhangen van je medische voorgeschiedenis, eventuele andere medicijnen die je gebruikt, en persoonlijke voorkeur.

Raadpleeg altijd een arts voor persoonlijk medisch advies.
dacht dat het aan mij lag. resultaten lagen soms redelijk ver van hoe het zou moeten zijn.
Ik heb zelf minder last van dit soort beperkingen maar wel dat de data in het algeheel beperkt is. Zoals sommige aangeven Bard is een mooi alternatief maar Claud2 doet het ook best goed.

Wat mij wel opvalt is dat geen enkel model dat ik tegenkom tot op heden goed kan vertalen. Ja ze vertalen maar de vertalingen zelf zijn duidelijk niet door een mens gemaakt. (Althans zo is mijn ervaring voor Chat/Claud/Bard).
Wij laten GPT4 vertalen, en dat werkt best goed. Maar het is wel belangrijk dat je veel context en sturing geeft.

Dus niet zoiets als: "Vertaal in het Frans: abc"

Maar meer iets als: "De volgende tekst moet in het Frans vertaald worden voor een website waar kinderen leren over techniek. Zorg dat de tekst eenvoudig te begrijpen is door kinderen van 8 jaar zonder technische kennis: abc".

De prompt die wij zelf gebruiken is nog veel langer dat dit. Is even werk, maar als je hem eenmaal geschreven hebt krijg je wel consistent de stijl die je wilt hebben.
Ik heb hier specifiek moeite met het vertalen van Engels naar Chinees. Ik zit zelf in China en veel documenten zijn tweetalig maar uiteindelijk gaat nog steeds alles door onze vertaler. Vertalingen van LLMs blijven ondergeschikt (tot op heden).
Wij doen hier voornamelijk Chinees en Japans. Een menselijk vertaler blijft voorlopig nog beter, maar als je de meeste significante verbeteringen van de menselijke vertaler opneemt in je prompt dan zal GPT daar rekening mee houden.

Het is in elk geval voldoende voor de technische documentatie die wij produceren. Voor zover de menselijke vertalers er commentaar op blijven houden zijn ze het vaak onderling oneens. Dat geeft voor mij toch wel aan dat GPT aardig in de buurt komt.

Specifiek voor Chinees zien wij overigens grote verschillen tussen GPT-3.5 en GPT-4, waarbij 35+ers de GPT-3.5 vertaling meer waarderen en jongeren de GPT-4 vertaling.
Merk ik zelf ook, Python scripts bevatten veel vaker dan ‘vroeger’ logische fouten. Also de ‘kennis’ over flow ineens zoek is
Gebruik je de standaard GPT-4? of the nieuwe Code Interpreter? Het lijkt erop dat ze dat ze een beetje willen opsplitsen omdat zoveel programmeurs gebruik maken van GPT.
wss gaan ze het in de toekomst monetize "oh je hebt een vraag over powershell daarvoor moet u eerst een abbo afnemen op het powershell module" nou ja dat zou mij in ieder geval niks verbazen.
wellicht heeft het ook te maken met restricties wat wordt opgelegd op AI met wetten
Waarschijnlijk is de rekenkracht wat teruggeschroefd. Het moet wel betaalbaar blijven..
Dat ie medische antwoorden niet meer zo duidelijk geeft, kan ik op zich nog wel inkomen. Zeker nu het voor consumenten is uitgerold, wil je niet aansprakelijk worden. Dat ze dan geen mogelijkheid geven om alsnog een beter antwoord te krijgen zonder enorme lappen context (waarmee ook de antwoorden weer lastiger worden), is wel weer heel jammer.

Bovendien door het veranderen van de regels, maakt dat het ook lastiger om te weten hoe je met ChatGPT om moet gaan. De zinnen die je eerst gaf, werken nu niet meer, dus wat dan wel. Is lastig om ook zoiets te verkopen aan je collega's e.d.
Iemand vroeg ChatGPT om een tekst te schrijven op basis van een deuntje van een bekend lied. Waar ik veracht dat dit voorheen geen probleem was, wilde ChatGPT het nu niet doen omdat er copyright ligt op liedjes en songteksten. Wat nergens op slaat, want er werd niet gevraagd de muziek te kopieren (al kan het dat ook niet), er werd niet gevraagd om de tekst 1 op 1 op te schrijven, er werd zelfs niet gevraag om een bestaande songtekst te vertalen (wat die soms ook niet meer doet wegens copyright), er werd gevraagd om een compleet nieuwe tekst te maken met als enige restrictie dat het in een lied zou passen, en ChatGPT weigerde.

En voordat iemand zegt dat parodien ook een grijs gebied zijn: Een tekst schrijven op basis van een ander liedje is gewoon volledig legaal. Als je het gaat opnemen, met de originele achtergrond muziek of een remake ervan, en dat gaat uitzenden op Youtube of Spotify, dan kom je pas in het grijze gebied terecht. In de geval niet iets voor ChatGPT om zich zorgen over te maken. Maar uit voorzorg gaan ze verder dan nodig met het afkappen van de mogelijkheden...
Vreemd of ik snap het niet, bij default maakt OpenAi dus ChatGPT (enterpice dus ook)al geen gebruik van je data, tenzij je het expliciet toestaat.
https://openai.com/policies/api-data-usage-policies

[Reactie gewijzigd door Mel33 op 22 juli 2024 16:01]

Dit gaat wel specifiek over de api, niet de website. Of tellen ze de website ook als api client?
Kan zijn maar tweakers heeft het over OpenAi, en api's zijn niet van OpenAi zelf dacht ik, die worden gemaakt door 3den. Maar de basis OpenAi maakt er iig geen gebruik van zonder uw toestemming..
Ik heb het nog even beter gelezen:
Note that this data policy does not apply to OpenAI's Non-API consumer services like ChatGPT or DALL·E Labs. You can learn more about these policies in our data usage for consumer services FAQ.
M.a.w. de data van de ChatGPT website van OpenAI zelf wordt wel degelijk gebruikt om ChatGPT mee te trainen
Ha en daar is weer een opt-out voor(zie link), Mij weer helder allemaal.
https://docs.google.com/f...ec7c0&edit_requested=true
ChatGPT (of beter OpenAI) heeft gewoon een eigen publieke API. Enkel een api key aanmaken en je kunt aan de slag met verschillendd endpoints.
Bij de gewone versie doen ze dat niet, bij de Enterprise versie doen ze het ook niet. Het is wat vreemd dat dit artikel het expliciet benoemd, gezien dit dus geen exclusieve feature is van de enterprise versie, maar niet vreemd dat OpenAI het zelf aangeeft bij hun feature list. Het blijft toch een zorg van veel bedrijven die verder ook staande wordt gehouden door de vele onwetendheid over AI, dus het is niet gek dat OpenAI gelijk opent door te stellen dat je data niet verder gebruikt wordt.

De voordelen van de Enterprise versie, naast snelheid, zitten vooral in zaken als single sign on voor de toegang van je werknemers en meer van dat soort beheer opties. Specifieke enterprise features dus.
Bij het gebruik van de ChatGPT web interface wordt duidelijk gemaakt dat ze juist wel gebruik maken van de gegevens.Dus in die zin is dit een belangrijke stap. Ik werk veel met security en het blokkeren van AI-diensten is voor mij een heel vervelende beperking.
Oprecht wel een game changer. Veel bedrijven willen juist niet dat hun medewerkers ChatGPT gebruiken, want privacy, want veiligheid. En als OpenAI nou precies komt met de functies die dat aankaarten, kunnen ze best wat bedrijven binnen halen als klant.
Door wie zou dit idee bedacht zijn :+ .

[Reactie gewijzigd door kevinr1 op 22 juli 2024 16:01]

Ik zit ook bij een bedrijf dat ChatGPT voorlopig geblokkeerd heeft vanwege datgene wat met deze Enterprise hopelijk opgelost is. Ik zette toen het nog niet geblokkeerd was nooit bedrijfsgegevens of gevoelige/herleidbare data erin, maar vaak simpele vragen en voorbeelden van code of om een richting te krijgen. Dat bespaarde me toen echt veel tijd al. Nu het geblokkeerd is merk ik dat ik soms alweer te lang aan het vogelen ben en vraag ik het gewoon op mijn privémobiel aan ChatGPT en kan ik makkelijker vooruit.

Hoop dus ook dat deze variant van ChatGPT snel wordt toegestaan bij ons bedrijf, zou er blij mee zijn.
Microsoft , daarom hebben ze die tent ook gekocht. Binnenkort in uw Office suite op het werk 👍
Bing werkt al samen met je office suite op het werk, Bing chat heb ik nog niet getest of die ook op bedrijfsgegevens kan zoeken, maar de stap zal wel klein zijn als je een onedrive en sharepoint hebt in Azure
Bing chat enterprise zoekt in je bedrijfs data. ik gebruik het geregeld en werkt best goed.

[Reactie gewijzigd door Yalopa op 22 juli 2024 16:01]

Het is al eenvoudig in Excel te integreren (wat verdraaid handig is). Dat zal inderdaad wel de standaard gaan worden.
Mooi dat het er is, maar jammer dat dit niet gewoon al aangeschaft kan worden en je via sales moet gaan aankloten. Laat me gewoon voor 10 euro extra per maand deze stuff abonneren. Ik wil namelijk wel chatgpt gebruiken, maar geen data delen die van mijn werkgever is (en alleen voor het gesprek gebruiken, nergens anders voor). Hopelijk snel verandering. Benieuwd naar de prijs, al zal die wel weer een stuk duurder zijn, gok ik.
Een tientje per maand is al veel te duur. Via de API kost het maar centen. Ik had eerst zo'n $20 ChatGPT abo maar ten eerste is het stomvervelend dat je het alleen via hun website kan gebruiken (inmiddels ook android maar toen had ik het al niet meer en iOS heb ik helemaal niet). En die website logt je om de paar dagen uit, als je dan een vraag typt in de browsertab die nog open staat zegt hij "oeps je bent uitgelogd" en dan mag je inloggen en je vraag weer helemaal opnieuw typen :( |:(

Voor die 20 euro wil ik gewoon een luxe oplossing hebben waar je ook bijv. de temperature (*) in kan stellen.

Toen kwam ik erachter dat je via de API gewoon je eigen frontend kan draaien waar dat soort dingen (temperature bijv) gewoon wel kunnen en ik heb hem inmiddels ook in mijn eigen matrix chatsysteem geintegreerd. Geen gezeur meer met die belabberde frontend van ze, en het is bovendien ook nog eens verrekte goedkoop. Ik heb de complete afgelopen maand in plaats van 20$ + BTW, 20 CENT verbruikt aan kosten (voor mijn interactieve chatgebruik, mijn automatiseringen draaien op een ander account).

Dus als je een beetje tweaker bent en je die 20 euro abo voor chatgpt betaalt dan ben je zo tot 100x duurder uit. 8)7

*) De temperature is hoe 'creatief' de chatbot is. Met een hele lage temperatuur biedt hij reproduceerbare maar vrij basale resultaten, met een hoge is de kans dat hij het uit zijn duim zuigt een stuk groter. Over het algemeen wil je voor hulp met programmeren een wat lagere temperatuur dan als je hem vraagt een brief of een verhaal te schrijven.
Ik wil namelijk wel chatgpt gebruiken, maar geen data delen die van mijn werkgever is (en alleen voor het gesprek gebruiken, nergens anders voor)
Dit kan ook al. Je kan bijvoorbeeld Azure OpenAI instances gebruiken, die die kanttekening (geen gebruik van data voor training) ook al hebben.

Dit is precies wat wij op het werk hebben gedaan. We hebben Azure OpenAI gekoppeld aan MS Teams zodat je gewoon via Teams met ChatGPT kan chatten op een veilige manier, en chat.openai.com geblokkeerd omdat er veel te veel gevoelige data die kant op ging.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 16:01]

Je kunt al wel (als nieuwe feature) een stukje context meegeven en hoe je een antwoord wilt hebben. Dit neemt ie elke keer mee. Dus als je aangeeft altijd als piraat te willen praten en piet piraat te heten, dan komt ie elke keer met zo'n reactie terug. Ik denk dat je daar ook wel kunt aangeven hoe precies ie moet/mag zijn.

Maar inderdaad, het is alleen via de website nog niet zo handig. Maar het hangt van je werk af wat voor nut het heeft en of er niet betere tools zijn.

Het gaat mij er vooral om dat je nu dus iets kunt gebruiken waarbij je data niet direct doorstuurt en in andere chats ineens voorbij kan komen.
Je kunt al wel (als nieuwe feature) een stukje context meegeven en hoe je een antwoord wilt hebben. Dit neemt ie elke keer mee. Dus als je aangeeft altijd als piraat te willen praten en piet piraat te heten, dan komt ie elke keer met zo'n reactie terug. Ik denk dat je daar ook wel kunt aangeven hoe precies ie moet/mag zijn.
Ja een "prompt". De API interfaces hebben dat ook al langer.
De Azure OpenAI instances kunnen data doorsturen naar Microsoft als hun content flagging getriggered is. Deze kan dan door medewerkers van Microsoft beoordeeld worden. Zie hoofdstuk Preventing abuse and harmful content generation
Vrijwel dicht voor je data, maar niet helemaal.
Je kan het argument voeren dat je toch geen vlagbare content stuurt/produceert, maar het is moeilijk vinden wat vlagbaar is.
Dat is waar, maar dat is niet zo'n probleem.

Ons hele hebben en houden zit al in OneDrive/SharePoint/Outlook en de hele rambam. Daar is die flagging net zo goed op van toepassing. Dus dat data loss prevention risico is allang al in de overweging meegenomen en waar nodig gemitigeerd of vastgelegd in dataverwerkingsovereenkomsten.

Wat je hier wel uitsluit is de training van modellen waardoor data van jou bij andere klanten terecht kan komen zonder dat je daar enig zicht op hebt. En weer een nieuwe partij waar je data verwerking mee moet afsluiten.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 16:01]

Iemand al enig idee van de pricing? Ik heb alvast een sales aanvraag gedaan, want ik kon zo snel de publieke pricing nog niet vinden.
Ik heb 2 maanden terug al meerdere sales aanvragen gedaan en heb nog steeds niets teruggehoord, dus ik ben heel benieuwd of dat door deze aankondiging nog gaat veranderen.
Een het minimale aantal users...

Persoonlijk zijn de limieten voor de chat (4000 tokens in+out samen in de normale versie) zijn voor mij de reden dat ik het nog nauwelijks gebruik.

Iets betere documentatie/instructies zou ook welkom zijn, met de API werken is als noob in mijn ervaring onbegonnen werk, terwijl je op youtube door de bomen het bos niet meer ziet.
Als je wilt aanmodderen met AI chat of coding en je bent op je privacy gesteld installeer het dan op je computer. Pak text-generation-webui en download de modellen via huggingface zoals deze uncensored bijv.
Zijn die van dezelfde kwaliteit en hebben ze dezelfde beperkingen?
Ik ben aan het zoeken geweest. Is er ergens een overzicht / indicatie van wat je nodig hebt om bepaalde modellen te runnen? Ik vind de wildst uiteenlopende antwoorden.
Ik ben benieuwd of je deze enterprise versie als privepersoon ook kan gebruiken. Ik gebruik nu de gewone API van ChatGPT en ik loop met mijn automatiseringen al snel tegen de maximale inputgroottes aan. Daarom wil ik deze wel verrekte graag hebben omdat die veel grotere inputs aankan.

Ik zie dit:
In vergelijking met de consumentenversie is ChatGPT Enterprise volgens OpenAI twee keer sneller en gebruikers kunnen standaard vier keer zo grote bestanden of teksten gebruiken als input. Dit laatste is ook beschikbaar bij andere GPT-4-versies, alleen dan tegen betaling.
Maar waar ik dat dan aan kan zetten vind ik vooralsnog niet terug :-(

Waar ik het met name voor gebruik is het samenvatten van grote telegram groepen waarvan in geen zin heb om het zelf bij te houden.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 16:01]

Ik heb m'n plus abonnement binnen 5 minuten weer gecancelled toen ik zag dat er een limiet op 4.0 voor het aantal requests zat en de limieten voor het aantal tokens in+output (voor mij) onbruikbaar laag was.

Ik gebruik het om een lijst bronnen/feiten in te voeren om daar een artikel uit te laten rollen. Maar een antwoord van meer dan 800 woorden lijkt onmogelijk te zijn.
Ja en via de API kan je bovendien veel meer instellen en het is nog veel goedkoper ook: GekkePrutser in 'OpenAI brengt ChatGPT Enterprise met extra privacyfuncties uit voor bedrijven'
Ik zag je reactie, maar hoewel ik verre van een digibeet ben schrikken API's me toch (nog) af. Ik heb geen flauw idee waar te beginnen of hoe het aan te pakken.

De Playground (inloggen noodzakelijk) leek me op wat ik zoek, maar daar is versie 4.0 niet voor beschikbaar?

Ik wil mijn eerdere artikelen, heb er zo'n honderd van 800-1000 woorden, kunnen gebruiken als trainingset om vervolgens, op basis van een input van ongeveer 500 woorden, in mijn schrijfstijl nieuwe artikelen van 1200 worden kan laten schrijven. Na de broodnodige redactie houdt ik dan een artikel van 800-1000 woorden over, wat ik dan weer aan de trainingsset toe wil voegen.

Het probleem waar ik op vast liep is de beruchte cut-off date van 2021, ChatGPT heeft dus geen info over z'n eigen ontwikkelingen en kan me niet helpen om zoiets op te zetten zonder naar verouderde info te verwijzen.

Op dit moment gebruik ik Bard als ik "AI" hulp nodig heb, dat werkt in mijn ervaring zeker 2x zo goed. Maar als we het over privacy hebben, om toch nog weer ff on-topic te komen, dan is Google voor mijn gevoel een groter risico dan OpenAI? (al was het alleen al omdat mijn content uiteindlijk ook online komt en door Google geindexeerd wordt)
Ah maar wacht ff, API betekent niet dat je zelf met code aan de slag moet.

Het betekent alleen dat je ff een docker moet installeren met een frontend (sommige schijnen zelfs gewoon een windows EXE te zijn) en daar je API key in moet vullen :)
Het probleem waar ik op vast liep is de beruchte cut-off date van 2021, ChatGPT heeft dus geen info over z'n eigen ontwikkelingen en kan me niet helpen om zoiets op te zetten zonder naar verouderde info te verwijzen.
Via de API heb ik een cutoff date van Juli 2023, hier een reactie van ChatGPT van gisteren:
As of my knowledge on July 27, 2023, I do not have specific information about the resolution improvement [...]
Wel weer een wezelig antwoord maar de cutoff datum met sommige van de API modellen is veel nieuwer.

[Reactie gewijzigd door GekkePrutser op 22 juli 2024 16:01]

Dat men bij openai doet wat ze willen. Omdertussen draai ik thuis op consumenten hardware. Verschillende modellen van stable diffusion tot llama2vicuna uncensored superhot verder gefinetuned met men eigen data die ik wil dat er in moet zitten zonder verbinding met het internet te hoeven maken en zonder mijn privacy te hoeven schenden.

In mijn ogen is het als bedrijf ook beter als je leert hoe je machine learning in jou bedrijf kan toepassen zonder afhankelijk te hoeven zijn van bedrijven zoals openai. Met je eigen datasets. Ga je meer uit halen dan een model dat constant je bedrijfsgegevens bij in zen trainings data steekt.

Mijn gepersonaliseerd model heeft zelfs een persoonlijkheid die je kan maken hoe je wil van big tiddy goth gf tot dicatator. Natuurlijk moet het onderliggende model ook geschikt zijn hiervoor. De beste toepassingen om hiervoor met te starten zijn lollms-webui(gpt4all) en de text generation webui. Bij mij levert lollms wel een pak snellere resultaten en zijn de modellen wel heel snel geladen van cold boot naar een model dat code schrijft, debugt en optimaliseerd in 2 minuten. Geen verbinding nodig met het net tenzij je dat wenst of nodig hebt en tal van community support.

Voor snelheid gaan betalen is onzin 13B model locaal draaiend is sneller dan gpt4 als onbetaald gebruiker voor mij.

Ultieme personalisatie, geen datamining. Betere output, gratis. Ik begrijp niet dat chatgpt nog gebruikt wordt. Maar dit zal ik wijden aan het reclame budget.
Laten we dit even extrapoleren naar een bedrijf vaan het een kritische toepassing ondersteunt.

Hoeveel % van de tijd staat jou hardware energie te verbruiken terwijl het geen AI opdracht verwerkt?
Hoeveel tijd spendeer je aan het onderhouden van je gear, inclusief de tijd die je nodig hebt gehad om dit alles te leren
Hoeveel mensen kunnen wat jij kan, en waar vind je die op de markt?

Laten we daar nu eens AI in de cloud tegenover zetten
Zeer lage kosten per berekening (de kosten zitten in het trainen), geen continue kosten.
Werken met eigen data zonder dat de data gebruikt wordt om het model verder te trainen of dat er data gelekt wordt.
Veel minder gespecialiseerd personeel nodig voor onderhoud
snelheid op schaal, kan jou systeem pakweg 1000 vragen per minut op een redelijke termijn (enkele seconden) beantwoorden?
Een beschikbaarheid SLA

Knap dat je dit allemaal zelf gemaakt hebt, maar jij legt je focus op de dingen waar bedrijven geen interesse in hebben.
Euhm, je hebt tegenwoordig voor elke webui een "one click" installer.

Git clone github.com
Cd text-generation-webui
Heb je DE(klik dan even op de installer)
Ofwel met de commandline
Bash webui.sh

En het draait.

Wil je scalen? Dan huur je gewoon infastructuur bij runpod amazon of eender welke cloud provider

Veel leren is hier niet aan om hier aan te beginnen als het personeel van het bedrijf niet in staat is om een git clone en een shell script te draaien

is in mijn ogen het mogenlijks lekken van bedrijfsgegevens door derden en de privacy van het personeel schenden niet waar. Bedenk even al het geen dat door iedereen tegen chatgpt vertertelt wordt in ene grot pot komt met een beetje "prompt engineering" kan je het persoonlijke gegevens laten lekken uit trainings data(is al gebeurd in het verleden)

Mocht ik een bedrijf van machinelearning chat moeten voorzien. Zou ik beginnen met kijken naar opties zoals runpod of aws die het mogenlijk maken zelf ai modellen te draaien op gehuurde infrastructuur. Eens een gischikte provider gevonden. Dan hoef je tegenwoordig de installs ook al niet meer zelf doen. Dan is het maar een kwestie van een model te kiezen en dit de "personaliteiten" of kenmerken te geven van wat het mag zeggen en wat niet, geheel customised desnoods per persoon per afdeling will de ceo een big tiddy goth gf en mogen de werkplebs maar een beperkt model hebben dat enkel zijn job kan doen. Is het maar een kwestie van de conditioning file aan te passen welke maar een paar regels text zijn: act as a software developer. I will provide some specific information about web app requirements, and it will be your job to come up with architecture and code for developping a secure app in {gewenste talen}. Start by writing an explanation of what you can do.

En meer is het niet en voor zowat elke job is er al een example file voorzien. Gewoon aanklikken of je een tech reviewer, journalist, ux_ui dev, of een Verkoper nodig hebt.

Niet veel leren aan eigenlijk. Kan geweldig scalen met gehuurde infrastructuur. Ik zie alleen maar voordelen
Heel mooi dat je dit allemaal zelf draait en past ook helemaal bij Tweakers. Maar om je laatste vraag te beantwoorden: waarom wordt ChatGPT nog gebruikt? Dat is natuurlijk gemak. Bij ChatGPT ga je naar de website, log je in en stel je je vraag waarop je dan antwoord krijgt. Kan iedere gebruiker.
Een eigen model installeren en trainen daarentegen is voor maar weinig gebruikers haalbaar en kost daarnaast ook nog veel tijd.
Mja nu nog wel. Ik verwacht in de toekomst nog wel wat nieuwe AI tools die makkelijker te installeren zijn en waar je tegen betaling gewoon de datasets koopt of update. Want de markt voor dit soort dingen is gewoon heel groot. Maar we zijn nog niet zo ver dat de datasets goed genoeg zijn om mee te werken en je dus moet laten leren. En dat gaat alleen als je veel data te verwerken krijgt.

Het zal me niet verbazen als je straks een NAS kunt kopen wat zowel opslag levert als AI functies kan draaien op je lokale netwerk.

Op dit item kan niet meer gereageerd worden.