Bing Search sneller en nauwkeuriger dankzij kleine AI-modellen

donderdag, 19 december 2024 (09:26) - Techzine

In dit artikel:

Het Bing-zoekteam heeft aangekondigd dat het de nieuwste Small Language Modellen (SLM's) heeft getraind, wat de verwerkingssnelheid met ongeveer honderd keer verhoogt vergeleken met de bestaande LLM-modellen. Deze ontwikkeling maakt het mogelijk om zoekopdrachten nauwkeuriger en sneller te verwerken, met als doel de gebruikerservaring van Bing te verbeteren.

De overstap naar SLM-modellen en de integratie van TensorRT-LLM leidt tot drie voornaamste voordelen voor gebruikers: snellere zoekresultaten dankzij geoptimaliseerde respons-tijden, verbeterde nauwkeurigheid van zoekresultaten door contextuele voordelen, en lagere kosten voor Microsoft, wat het mogelijk maakt om verder te investeren in technologische innovaties. Deze verbeteringen kunnen het marktaandeel van Bing vergroten door meer gebruikers te trekken, vooral nu steeds meer mensen alternatieve zoekoplossingen zoals ChatGPT verkennen.

Bovendien heeft Microsoft het Phi-4-model ontwikkeld, dat met 14 miljard parameters de prestaties van eerder modellen zoals GPT-4 overtreft in specifieke AI-benchmarks, met een focus op wiskundig redeneren door het gebruik van hoogwaardige datasets. Deze ontwikkelingen kunnen de concurrentie met grotere spelers zoals Google onder druk zetten en de zoektechnologie in het algemeen herdefiniƫren.