Tech Blog

Tech Blog
Hoe wij de volgende generatie LLM's van DeepL hebben ontwikkeld met FP8 voor training en inferentie

Ontdek hoe DeepL FP8 gebruikt voor training en inferentie in next-gen LLMs, wat doorvoer en modelkwaliteit verbetert, en hoe NVIDIA-technologie snellere training en betere vertalingen met lage latentie mogelijk maakt.

Door Markus Schnös & Fabian Joswig, DeepL Staff Research HPC Engineers
Tech Blog
Een diepgaande analyse van MCP's, deel 1: Wat is MCP eigenlijk?

Ontdek het Model Context Protocol (MCP) en de impact op AI sinds 2024. Leer hoe MCP AI-agenten toegang geeft tot real-world tools en bouw uw eigen MCP-server in slechts 10 regels code.

Door Ben Morss, Developer Evangelist, DeepL