Meta ogłosiła 24 lutego opracowanie sztucznej inteligencji dla Facebooka. Jest to system inspirowany technologią ChatGPT, z funkcjami do generowania tekstów, czatowania i analizowania danych. Według Marka Zuckerberga, dyrektora generalnego firmy, technologia jest nadal w „najnowocześniejszym stanie techniki”. To jest rodzaj fazy testowej. Nie jest jeszcze otwarty dla ogółu społeczeństwa, więc dostęp jest tylko dla programistów.
Zobacz więcej
Google opracowuje narzędzie AI, które pomoże dziennikarzom w…
Nieotwarty oryginalny iPhone z 2007 roku kosztuje prawie 200 000 USD; wiedzieć...
W obliczu postępów w dziedzinie sztucznej inteligencji kilka firm z sektora technologicznego poszukiwało własnych systemów, aby ze sobą konkurować. Wraz z pojawieniem się ChatGPT, programu AI zdolnego do wykonywania różnych zadań, takich jak pisanie, tłumaczenie i analizowanie danych, powstały inne podobne programy.
Google w tej fali wprowadził Barda. Oczywiście Microsoft zainwestował również w OpenAI, firmę, która stworzyła ChatGPT, której wynik został zintegrowany z Bing. Nie wspominając o niektórych chińskich projektach, które są w drodze.
Lama
Po fali Facebook ogłosił Large Language Model Meta AI (LLaMa), sztuczną inteligencję z funkcjami podobnymi do ChatGPT. Jak dotąd technologia jest ograniczona do programistów specjalizujących się w językach. Obecny model programu obejmuje 20 najczęściej używanych języków na świecie, z alfabetem łacińskim.
Grupa docelowa LLaMa
Sztuczna inteligencja platformy będzie oferowana badaczom, laboratoriom, instytutom i organizacjom pozarządowym zajmującym się sztuczną inteligencją językową. LLaMa jest dostępna w czterech modelach językowych i sprawi, że system będzie otwarty dla społeczności naukowej i badawczej.
Spekuluje się, że technologia ta mogłaby zostać wykorzystana do zwalczania programów językowych, które używają zwrotów uprzedzonych lub dyskryminujących. Ponadto może być wykorzystywany do zwalczania fałszywych wiadomości, dzięki czemu będzie w stanie porównywać dane z wiadomościami i identyfikować fałszywe punkty lub dezinformacje.
Według Meta: „Jako podstawowy model, LLaMA został zaprojektowany tak, aby był wszechstronny i można go było zastosować do wielu różnych przypadków użycia w porównaniu z modelem opracowanym dla jednego zadania konkretny".