- Hyperlink działa całkowicie na sprzęcie lokalnym, zapewniając prywatność każdego wyszukiwania
- Aplikacja indeksuje ogromne foldery z danymi na komputerach RTX w ciągu kilku minut
- Wnioskowanie LLM na Hyperlink podwaja prędkość dzięki najnowszej optymalizacji Nvidia
Nowy agent „Hyperlink” Nexa.ai wprowadza podejście do wyszukiwania AI, które działa wyłącznie na sprzęcie lokalnym.
Zaprojektowana dla komputerów PC Nvidia RTX AI, aplikacja działa jako asystent na urządzeniu, który przekształca dane osobowe w ustrukturyzowany wgląd.
Nvidia opisała, jak zamiast wysyłać zapytania do zdalnych serwerów, przetwarza wszystko lokalnie, oferując zarówno szybkość, jak i prywatność.
Prywatna inteligencja z lokalną szybkością
Hyperlink został przetestowany na systemie RTX 5090, gdzie podobno zapewnia do 3 razy szybsze indeksowanie i 2 razy szybsze wnioskowanie o modelu dużego języka w porównaniu do wcześniejszych wersji.
Te wskaźniki sugerują, że może skanować i organizować tysiące plików na komputerze wydajniej niż większość istniejących narzędzi sztucznej inteligencji.
Hiperłącze nie tylko dopasowuje wyszukiwane hasła, ale interpretuje intencje użytkownika, stosując możliwości wnioskowania LLM do plików lokalnych, umożliwiając zlokalizowanie odpowiednich materiałów nawet wtedy, gdy nazwy plików są niejasne lub niezwiązane z rzeczywistą treścią.
To przejście od statycznego wyszukiwania słów kluczowych do zrozumienia kontekstowego jest zgodne z rosnącą integracją generatywnej sztucznej inteligencji z codziennymi narzędziami zwiększającymi produktywność.
System może także łączyć powiązane pomysły z wielu dokumentów, oferując uporządkowane odpowiedzi z jasnymi odniesieniami.
W przeciwieństwie do większości asystentów opartych na chmurze, Hyperlink przechowuje wszystkie dane użytkownika na urządzeniu, więc skanowane przez niego pliki, od plików PDF i slajdów po obrazy, pozostają prywatne, zapewniając, że żadne osobiste ani poufne informacje nie opuszczą komputera.
Model ten jest atrakcyjny dla profesjonalistów zajmujących się wrażliwymi danymi, którzy nadal chcą korzyści wydajnościowych wynikających z generatywnej sztucznej inteligencji.
Użytkownicy uzyskują dostęp do szybkich odpowiedzi kontekstowych bez ryzyka ujawnienia danych, które towarzyszy zdalnemu przechowywaniu lub przetwarzaniu.
Optymalizacja Nvidii pod kątem sprzętu RTX wykracza poza wydajność wyszukiwania, ponieważ według firmy technologia Augmented Retrieval Generation (RAG) indeksuje teraz foldery zawierające duże ilości danych nawet trzykrotnie szybciej.
Typową kolekcję o rozmiarze 1 GB, której przetwarzanie zajmowało prawie 15 minut, teraz można zindeksować w około 5 minut.
Poprawa szybkości rozumowania oznacza także, że odpowiedzi pojawiają się szybciej, co ułatwia codzienne zadania, takie jak przygotowanie się do spotkania, sesje studyjne czy analiza raportu.
Hyperlink łączy wygodę z kontrolą, łącząc lokalne rozumowanie i akcelerację GPU, dzięki czemu jest użytecznym narzędziem AI dla osób, które chcą zachować prywatność swoich danych.
Obserwuj TechRadar w Google News I dodaj nas jako preferowane źródło aby otrzymywać wiadomości od ekspertów, recenzje i opinie w swoich kanałach. Koniecznie kliknij przycisk Obserwuj!
I oczywiście Ty też możesz Śledź TechRadar na TikTok aby otrzymywać aktualności, recenzje, rozpakowywania wideo i otrzymywać od nas regularne aktualizacje pod adresem WhatsApp Również.



