!dGbJYIUVLPrDtFFEqV:matrix.org

Telegram: MLP~

146 Members
PL only26 Servers

Load older messages


SenderMessageTime
9 Apr 2024
@telegram_350496775:t2bot.ioSticzunajrpościej dało by się to podłączyć do koboldcpp17:32:44
@telegram_350496775:t2bot.ioSticzumożna uruchomić i na tym i na tym. są też skwantyzowane modele i powinno też nawet działać na lama.cpp17:36:00
@telegram_350496775:t2bot.ioSticzutak myślę17:33:06
@telegram_132880501:t2bot.ioMc KeyPLkurde akurat nie mam chwilowo zapału na to ale odpaliłbym i spróbował napisać polską postać jakąś xD17:36:37
10 Apr 2024
@telegram_350496775:t2bot.ioSticzuTestowałem na koboldcpp ten model, działa bardzo dobrze.08:58:37
11 Apr 2024
@telegram_132880501:t2bot.ioMc KeyPLgenerowanie 1 odpowiedzi trwa 2500 sekund?09:09:06
@telegram_350496775:t2bot.ioSticzuimage.jpeg
Download image.jpeg
09:07:36
@telegram_350496775:t2bot.ioSticzuMniej więcej na moin sprzęcie tak.09:09:57
@telegram_350496775:t2bot.ioSticzuAle to mam 14 letni komputer09:10:12
@telegram_132880501:t2bot.ioMc KeyPLA no chyba że09:10:19
@telegram_132880501:t2bot.ioMc KeyPLw sumie jak mi sie zwolni serwer to zobacze jak na nim to ruszy xD09:10:33
@telegram_132880501:t2bot.ioMc KeyPLDo CPP trza pobrać GGUF a nie normalny xD10:21:21
@telegram_350496775:t2bot.ioSticzuNo tak jest to bardzo lekki format i prosty zunifikowant następca ggml. Model bielik jest 16 bitwy ale mozna na stronie pobrać skwantyzowane modele w tym formacie gguf 8 bitów 4 i 2 bity.11:12:48
@telegram_350496775:t2bot.ioSticzuMozna sonie samemu przekonwetować safetensor na gguf11:13:54
@telegram_350496775:t2bot.ioSticzuPamiętam kiedyś trzeba było sobie naprawiać kod do takich konweteów bo ktos użył tam specyficznych funkcji dla instrukcji procesora a ja takowych w proxesorse nie miałem.11:17:15
@telegram_350496775:t2bot.ioSticzu* Pamiętam kiedyś trzeba było sobie naprawiać kod do takich konweterów bo ktoś użył tam specyficznych funkcji dla instrukcji procesora a ja takowych w proxesorse nie miałem.11:17:36
@telegram_350496775:t2bot.ioSticzu* Pamiętam kiedyś trzeba było sobie naprawiać kod do takich konweterów bo ktoś użył tam specyficznych funkcji dla instrukcji procesora a ja takowych w procesorze nie miałem.11:17:50
@telegram_5725157489:t2bot.ioAleksander
In reply to Mc KeyPL
Do CPP trza pobrać GGUF a nie normalny xD
normalny nawet i nie będzie pracować jeśli nie będzie wystarczająco VRAM
"CUDA out of memory" no i wszystko
11:26:56
@telegram_132880501:t2bot.ioMc KeyPLnie mam pod ręką GPU. W domu mam 1080 i tam pewnie ruszy normalnie pełny11:27:23
@telegram_5725157489:t2bot.ioAleksandermam 4080 super. Chyba tzeba posprobować, lol11:27:38
@telegram_5725157489:t2bot.ioAleksander* mam 4080 super. Chyba trzeba posprobować, lol11:27:54
@telegram_132880501:t2bot.ioMc KeyPLimage.jpeg
Download image.jpeg
11:28:24
@telegram_132880501:t2bot.ioMc KeyPLZa to mam i7 4 generacji która daje rade. Jak dostane serwer z 2 prockami to pale to na pełnej na 24 wątkach i może będzie tak samo szybkie jak GPT4 w bingu xD11:28:24
@telegram_350496775:t2bot.ioSticzuXD Trzeba zrobić fine tuning temu modelowi. Można przepisać dane z gpt-4, i je poprawić do tego na temat MLP11:31:13
@telegram_350496775:t2bot.ioSticzuKto się dołącza do tego projektu?11:31:31
@telegram_132880501:t2bot.ioMc KeyPLpytanie co trzeba robić11:33:09
@telegram_5725157489:t2bot.ioAleksander
In reply to Mc KeyPL
pytanie co trzeba robić
placic za prad
11:35:20
@telegram_350496775:t2bot.ioSticzuTrdeba się dowiedzieć jak takie modele trenować, na stronie hugging face od autorów tego modelu jest tam napisane czym trenowali i z jakiego zestawu danych. Zrobić co najmniej parę tysięcy rekordów danych treningowych na temat MLP11:35:59
@telegram_350496775:t2bot.ioSticzuNo i tak trzeba wynająć, albo ogarnąć sprzęt do trenowania.11:36:17
@telegram_350496775:t2bot.ioSticzuChoć ms i google lubi takow godziny dzialania takiego sprzetu dawac za darmo11:37:17

Show newer messages


Back to Room ListRoom Version: