Microsoft heeft Phi-3 Mini aangekondigd, een klein taalmodel dat getraind is op door andere taalmodellen geschreven kinderboeken. Het begrip van het AI-model moet in lijn zijn met ongeveer GPT 3.5 van OpenAI.
Phi-3 Mini lijkt op moment van schrijven nog niet online te staan, maar Microsoft heeft de paper erover wel online gezet. Het gaat om een model met 3,8 miljard parameters. Dat is relatief weinig en dat heeft als voordeel dat het licht genoeg is om te draaien op laptops en smartphones. De trainingsdata kwam volgens Microsoft in een artikel van The Verge deels van het web en deels van door AI-chatbots gemaakte 'kinderboeken' met alleen de 3000 meest voorkomende woorden.
De bedoeling is om aan te tonen dat het door de juiste trainingsdata te gebruiken mogelijk is om met minder parameters een even krachtig model te bouwen en volgens Microsoft kan Phi-3 Mini op tegen GPT 3.5 en Mixtral. Die laatste heeft 45 miljard parameters.
De Mini-versie is de eerste in een serie van drie Phi-3-modellen die Microsoft wil uitbrengen. Daarnaast komen Phi-3 Small van zeven miljard parameters en Phi-3 Medium met veertien miljard parameters. Wanneer die uitkomen, is onbekend. Microsoft zet zijn Phi-modellen online op HuggingFace, maar ze zijn ook bruikbaar via Microsofts eigen cloudplatform Azure en desktopapp Ollama.
Het is onbekend wat Microsofts plannen zijn met Phi. Het gebruikt voor zijn CoPilot-producten doorgaans OpenAI's GPT-modellen, die het zelf nog traint voor de diensten waar Microsoft het model in integreert.