Root NationNieuwsIT-nieuwsApple presenteerde zijn nieuwe AI-model ReALM

Apple presenteerde zijn nieuwe AI-model ReALM

-

Onderzoekers Apple hebben een kunstmatig intelligentiesysteem ontwikkeld genaamd ReALM (Reference Resolution as Language Modeling), dat tot doel heeft de manier waarop stemassistenten opdrachten begrijpen en erop reageren radicaal te verbeteren.

In een onderzoekspaper Apple beschrijft een nieuw raamwerk voor de manier waarop grote taalmodellen het probleem van referentieresolutie aanpakken, waaronder het ontcijferen van dubbelzinnige verwijzingen naar objecten op het scherm, evenals het begrijpen van conversatie- en achtergrondcontext. Als gevolg hiervan kan ReALM leiden tot een meer intuïtieve en natuurlijke interactie met apparaten.

Apple

Referentieherkenning is een belangrijk onderdeel van het begrijpen van natuurlijke taal, waardoor gebruikers voornaamwoorden en andere indirecte verwijzingen in gesprekken zonder verwarring kunnen gebruiken. Voor digitale assistenten is dit vermogen van oudsher een aanzienlijke uitdaging geweest, beperkt door de noodzaak om een ​​breed scala aan verbale signalen en visuele informatie te interpreteren. Het ReALM-systeem van Apple heeft tot doel dit probleem op te lossen door het complexe proces van referentieherkenning om te zetten in een pure taalmodelleringstaak. Op deze manier kan ze de verwijzingen naar de visuele elementen die op het scherm worden weergegeven begrijpen en dit begrip integreren in de gespreksstroom.

ReALM reconstrueert de visuele structuur van het scherm met behulp van tekstrepresentaties. Dit omvat het ontleden van schermobjecten en het rangschikken ervan om een ​​tekstformaat te creëren dat de inhoud en structuur van het scherm weerspiegelt. Onderzoekers Apple ontdekte dat deze strategie, gecombineerd met speciale afstemming van taalmodellen voor benchmarkresolutieproblemen, aanzienlijk beter presteert dan traditionele methoden, waaronder de GPT-4-mogelijkheden van OpenAI.

Apple

Met ReALM kunnen gebruikers veel effectiever communiceren met digitale assistenten op basis van wat er momenteel op het scherm wordt weergegeven, zonder dat er nauwkeurige, gedetailleerde instructies nodig zijn. Dit zou stemassistenten veel nuttiger kunnen maken in verschillende situaties, zoals het helpen van bestuurders bij het navigeren door infotainmentsystemen tijdens het rijden of het assisteren van gebruikers met een handicap door eenvoudigere en nauwkeurigere middelen voor indirecte interactie te bieden.

Apple heeft al verschillende onderzoekspapers gepubliceerd op het gebied van AI. Vorige maand onthulde het bedrijf een nieuwe methode voor het leren van grote taalmodellen die zowel tekstuele als visuele informatie naadloos integreert. Het wordt verwacht dat Apple zal op de WWDC-conferentie in juni een aantal AI-functies introduceren.

Lees ook:

Aanmelden
Informeer over
gast

0 Heb je vragen? Stel ze hier.
Ingesloten beoordelingen
Bekijk alle reacties