LongShortTermMemory
Chat like
Generative Pre-trained Transformer
- Transformer is een neuraal netwerk met extra lus
- Input Endoding : Invoer wordt omgezet in een lijst met nummers (tokens)
- Er is een positie in het model voor het woord. Dat heeft met context te maken.
- Dus het woord Reclassering zal dicht bij het woord Justitie ' liggen ' qua numerieke waarde
- Naast context wordt ook de invoer door een snel opgezet neuraal netwerkje gehaald
- Dat neuraalnetwerkje wordt gevoed met de invoer en het geeft een score op basis van relaties
- Voorbeeld : Een robot moet de opdrachten die het …
Self Attention Proces : De invoer (woordje 'het') wordt vervolgens aan het neuraal netwerkje gevoed om de waarschijnlijke relatie met ' robot ' te achterhalen
- (zie punt 2) De [ Input Encoding = Tokens ] - waarde wordt gebruikt om de prediction (voorspelling) te vinden
- De voorspelling wordt vervolgens door grammatica checker en censuur filters gehaald
Dat je niet mag vragen:' hoe wordt een bom gemaakt'
Index.html