0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Falcon-7B大型語(yǔ)言模型在心理健康對(duì)話數(shù)據(jù)集上使用QLoRA進(jìn)行微調(diào)

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:NLP工程化 ? 2023-09-19 16:33 ? 次閱讀

??文本是參考文獻(xiàn)[1]的中文翻譯,主要講解了Falcon-7B大型語(yǔ)言模型在心理健康對(duì)話數(shù)據(jù)集上使用QLoRA進(jìn)行微調(diào)的過程。項(xiàng)目GitHub鏈接為https://github.com/iamarunbrahma/finetuned-qlora-falcon7b-medical,如下所示:3cc9b512-56c3-11ee-939d-92fbcf53809c.png

??使用領(lǐng)域適應(yīng)技術(shù)對(duì)預(yù)訓(xùn)練LLM進(jìn)行微調(diào)可以提高在特定領(lǐng)域任務(wù)上的性能。但是,進(jìn)行完全微調(diào)可能會(huì)很昂貴,并且可能會(huì)導(dǎo)致CUDA內(nèi)存不足錯(cuò)誤。當(dāng)進(jìn)行完全微調(diào)時(shí),可能會(huì)發(fā)生災(zāi)難性遺忘,因?yàn)樵S多權(quán)重在"知識(shí)存儲(chǔ)"的地方發(fā)生了變化。因此,迄今為止,在消費(fèi)者硬件上對(duì)擁有數(shù)十億參數(shù)的預(yù)訓(xùn)練LLM進(jìn)行微調(diào)并不容易。

核心原因
??心理健康應(yīng)該是任何個(gè)人的首要任務(wù),就像身體健康一樣重要。在我們的社會(huì)中,與抑郁和精神障礙有關(guān)的討論已經(jīng)被污名化,以至于人們避免討論與焦慮和抑郁有關(guān)的問題,也避免去看心理醫(yī)生。
??聊天機(jī)器人為尋求支持的個(gè)人提供了隨時(shí)可用和可訪問的平臺(tái)。它們可以隨時(shí)隨地訪問,為需要幫助的人提供即時(shí)援助。聊天機(jī)器人可以提供富有同情心和非判斷性的回應(yīng),為用戶提供情感支持。雖然它們不能完全取代人際互動(dòng),但它們可以在困難時(shí)刻提供有用的補(bǔ)充。雖然聊天機(jī)器人很有用,但并沒有多少匿名聊天應(yīng)用程序可以提供關(guān)于各種心理健康狀況、癥狀、應(yīng)對(duì)策略和可用治療選項(xiàng)的可靠信息和心理教育。
??因此,主要目標(biāo)是使用經(jīng)過篩選的對(duì)話數(shù)據(jù)集并使用QLoRA技術(shù)在開源Falcon-7B LLM上進(jìn)行微調(diào),從而構(gòu)建一個(gè)心理健康聊天機(jī)器人。Falcon-7B LLM根據(jù)Apache 2.0許可證提供,因此可以用于商業(yè)目的。

什么是LoRA?
??讓我們介紹一下LoRA[2](大規(guī)模語(yǔ)言模型的低秩適應(yīng),由Edward Hu等人提出)。LoRA技術(shù)基于LLM的參數(shù)高效微調(diào)方法。使用PEFT,我們可以對(duì)LLM進(jìn)行高性能建模的微調(diào),但只需要微調(diào)少量參數(shù)。PEFT的另一個(gè)優(yōu)點(diǎn)是我們可以使用更少的數(shù)據(jù)對(duì)任何大型模型進(jìn)行微調(diào)。
3ce24a96-56c3-11ee-939d-92fbcf53809c.png??LoRA是一種用于大型權(quán)重矩陣的隱式低秩變換技術(shù)。LoRA不直接分解矩陣,而是通過反向傳播學(xué)習(xí)分解矩陣。??雖然預(yù)訓(xùn)練模型的權(quán)重在預(yù)訓(xùn)練任務(wù)上具有完整的秩,但當(dāng)它們適應(yīng)新的領(lǐng)域特定任務(wù)時(shí),預(yù)訓(xùn)練模型具有較低的內(nèi)在維度。較低的內(nèi)在維度意味著數(shù)據(jù)可以有效地近似為一個(gè)較低維度的空間,同時(shí)保留了大部分基本信息或結(jié)構(gòu)。

什么是QLoRA?
??接下來(lái),讓我們來(lái)看看QLoRA[3](由Tim Dettmers等人提出的量化LLM的低秩適應(yīng))。QLoRA通過量化感知訓(xùn)練、混合精度訓(xùn)練和雙重量化來(lái)降低平均內(nèi)存占用。QLoRA具有存儲(chǔ)數(shù)據(jù)類型(4位Normal Float)和計(jì)算數(shù)據(jù)類型(16位Brain Float)。
3ceac932-56c3-11ee-939d-92fbcf53809c.png??在QLoRA中,預(yù)訓(xùn)練模型的權(quán)重矩陣以NF4格式存儲(chǔ),而可訓(xùn)練的LoRA權(quán)重矩陣以BFloat16格式存儲(chǔ)。在前向和后向傳遞過程中,預(yù)訓(xùn)練權(quán)重被解量化為16位Brain Float格式,但只計(jì)算LoRA參數(shù)的權(quán)重梯度。QLoRA通過凍結(jié)的4位量化預(yù)訓(xùn)練模型將梯度反向傳播到低秩適配器。QLoRA還利用了Nvidia的統(tǒng)一內(nèi)存,以確保在權(quán)重更新過程中有足夠的內(nèi)存以防止內(nèi)存不足錯(cuò)誤。
??QLoRA還引入了雙重量化,通過量化量化常數(shù)來(lái)降低平均內(nèi)存占用。在進(jìn)行預(yù)訓(xùn)練模型的4位量化的情況下,模型權(quán)重和激活從32位浮點(diǎn)數(shù)壓縮到4位NF格式。

4位NormalFloat量化的步驟
??4位NormalFloat量化是一種數(shù)學(xué)上直觀的過程。首先,模型的權(quán)重被歸一化,使其具有零均值和單位方差。然后,將歸一化的權(quán)重量化為4位。這涉及將原始高精度權(quán)重映射到一組較低精度值。在NF4的情況下,量化級(jí)別被選擇為在歸一化權(quán)重范圍內(nèi)均勻分布。
??在前向和后向傳遞過程中,量化的權(quán)重被解量化回完全精度。這是通過將4位量化的值映射回其原始范圍來(lái)完成的。解量化的權(quán)重用于計(jì)算,但它們以4位量化形式存儲(chǔ)在內(nèi)存中。

介紹
??在本博客文章中,我將介紹使用bitsandbytes和PEFT(來(lái)自HuggingFace的)對(duì)Falcon-7B大型參數(shù)模型進(jìn)行QLoRA技術(shù)微調(diào)的方法。在這里,我將使用自己從各種博客、WebMD和HealthLine等健康網(wǎng)站、心理健康FAQs以及其他可信的健康資源中策劃的自定義心理健康對(duì)話數(shù)據(jù)集。這個(gè)數(shù)據(jù)集包含了172行高質(zhì)量的患者和醫(yī)療保健提供者之間的對(duì)話。所有姓名和PII數(shù)據(jù)都已匿名化,并經(jīng)過預(yù)處理以刪除不需要的字符。
??我在Nvidia A100 GPU上使用Google Colab Pro對(duì)整個(gè)模型進(jìn)行了微調(diào),整個(gè)微調(diào)過程不到一個(gè)小時(shí)。但是,我們也可以使用Colab的免費(fèi)版Nvidia T4 GPU。如果使用免費(fèi)版GPU,必須確保微調(diào)的max_steps應(yīng)小于200。

安裝QLoRA的庫(kù)

!pip install trl transformers accelerate git+https://github.com/huggingface/peft.git -Uqqq
!pip install datasets bitsandbytes einops wandb -Uqqq

??我已經(jīng)安裝了bitsandbytes(用于LLM的量化)、PEFT(用于LoRA參數(shù)的微調(diào))、datasets(用于加載HF數(shù)據(jù)集)、wandb(用于監(jiān)視微調(diào)指標(biāo))和trl(用于使用監(jiān)督微調(diào)步驟訓(xùn)練變換器LLM)。
??我還從HuggingFace數(shù)據(jù)集中加載了自定義心理健康數(shù)據(jù)集(heliosbrahma/mental_health_chatbot_dataset)。它只包含一個(gè)名為"text"的列,其中包含患者和醫(yī)生之間的對(duì)話。

Falcon-7B模型的量化
??首先,我加載了一個(gè)共享模型,而不是一個(gè)單一的大模型。使用共享模型的優(yōu)點(diǎn)是,當(dāng)與accelerate結(jié)合使用時(shí),可以幫助accelerate將特定部分移動(dòng)到不同的內(nèi)存部分,有時(shí)是CPU或GPU,從而幫助在較小的內(nèi)存量中微調(diào)大型模型。我使用了ybelkada/falcon-7b-sharded-bf16的分片模型[4]。

model_name = "ybelkada/falcon-7b-sharded-bf16" # 分片falcon-7b模型

bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,            # 以4位精度加載模型
    bnb_4bit_quant_type="nf4",    # 預(yù)訓(xùn)練模型應(yīng)以4位NF格式進(jìn)行量化
    bnb_4bit_use_double_quant=True, # 使用QLoRA提出的雙重量化
    bnb_4bit_compute_dtype=torch.bfloat16, # 在計(jì)算期間,預(yù)訓(xùn)練模型應(yīng)以BF16格式加載
)

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    quantization_config=bnb_config, # 使用bitsandbytes配置
    device_map="auto",  # 指定device_map="auto",以便HF Accelerate將確定將模型的每個(gè)層放在哪個(gè)GPU上
    trust_remote_code=True, # 設(shè)置trust_remote_code=True以使用帶有自定義代碼的falcon-7b模型
)

??在這里,load_in_4bit設(shè)置使模型以4位精度加載,bnb_4bit_use_double_quant使雙重量化成為可能,正如QLoRA提出的那樣。bnb_4bit_compute_dtype設(shè)置在計(jì)算期間解量化基礎(chǔ)模型為16位格式。
??在加載預(yù)訓(xùn)練權(quán)重時(shí),我添加了device_map="auto",以便Hugging Face Accelerate會(huì)自動(dòng)確定要將模型的每個(gè)層放在哪個(gè)GPU上。此外,trust_remote_code=True將確保允許加載Hub上定義的自定義模型。

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
tokenizer.pad_token = tokenizer.eos_token # 將pad_token設(shè)置為與eos_token相同

??在這里,我必須從預(yù)訓(xùn)練模型加載tokenizer以對(duì)數(shù)據(jù)集進(jìn)行標(biāo)記化。我將pad_token設(shè)置為與eos_token相同,以啟用填充,以便一次發(fā)送數(shù)據(jù)批次進(jìn)行訓(xùn)練。

PEFT模型的配置設(shè)置和獲取PEFT模型

model = prepare_model_for_kbit_training(model)

lora_alpha = 32 # 權(quán)重矩陣的縮放因子
lora_dropout = 0.05 # LoRA層的丟棄概率
lora_rank = 32 # 低秩矩陣的維度

peft_config = LoraConfig(
    lora_alpha=lora_alpha,
    lora_dropout=lora_dropout,
    r=lora_rank,
    bias="none",  # 將其設(shè)置為'none',以僅訓(xùn)練權(quán)重參數(shù)而不是偏差
    task_type="CAUSAL_LM",
    target_modules=[         # 設(shè)置要對(duì)falcon-7b模型中的模塊名稱進(jìn)行LoRA適應(yīng)的名稱
        "query_key_value",
        "dense",
        "dense_h_to_4h",
        "dense_4h_to_h",
    ]
)

peft_model = get_peft_model(model, peft_config)

??由于我執(zhí)行文本生成任務(wù),因此將task_type設(shè)置為CAUSAL_LM。lora_alpha是權(quán)重矩陣的縮放因子,為L(zhǎng)oRA激活分配更多的權(quán)重。在這里,我將LoRA秩設(shè)置為32。經(jīng)驗(yàn)表明,與秩64或秩16相比,設(shè)置為32可以獲得更好的結(jié)果。為了考慮Transformer塊中的所有線性層以獲得最大性能,我還添加了"dense"、"dense_h_to_4h"和"dense_4h_to_h"層作為目標(biāo)模塊,以外加混合查詢鍵值對(duì)。lora_dropout是LoRA層的丟棄概率。在這里,我將偏差設(shè)置為None,但也可以將其設(shè)置為lora_only,以僅訓(xùn)練LoRA網(wǎng)絡(luò)的偏差參數(shù)。

TrainingArguments和Trainer的配置設(shè)置

output_dir = "./falcon-7b-sharded-bf16-finetuned-mental-health-conversational"
per_device_train_batch_size = 16 # 如果內(nèi)存不足,將批量大小減小2倍
gradient_accumulation_steps = 4  # 如果減小批量大小,則增加梯度累積步驟2倍
optim = "paged_adamw_32bit" # 啟用頁(yè)面功能以更好地管理內(nèi)存
save_strategy="steps" # 訓(xùn)練期間采用的檢查點(diǎn)保存策略
save_steps = 10 # 兩次檢查點(diǎn)保存之間的更新步驟數(shù)
logging_steps = 10  # 如果logging_strategy="steps",則兩次記錄之間的更新步驟數(shù)
learning_rate = 2e-4  # AdamW優(yōu)化器的學(xué)習(xí)率
max_grad_norm = 0.3 # 最大梯度范數(shù)(用于梯度裁剪)
max_steps = 320 # 訓(xùn)練將進(jìn)行320步
warmup_ratio = 0.03 # 用于線性預(yù)熱的步驟數(shù),從0到learning_rate
lr_scheduler_type = "cosine" # 學(xué)習(xí)率調(diào)度器

training_arguments = TrainingArguments(
    output_dir=output_dir,
    per_device_train_batch_size=per_device_train_batch_size,
    gradient_accumulation_steps=gradient_accumulation_steps,
    optim=optim,
    save_steps=save_steps,
    logging_steps=logging_steps,
    learning_rate=learning_rate,
    bf16=True,
    max_grad_norm=max_grad_norm,
    max_steps=max_steps,
    warmup_ratio=warmup_ratio,
    group_by_length=True,
    lr_scheduler_type=lr_scheduler_type,
    push_to_hub=True,
)

trainer = SFTTrainer(
    model=peft_model,
    train_dataset=data['train'],
    peft_config=peft_config,
    dataset_text_field="text",
    max_seq_length=1024,
    tokenizer=tokenizer,
    args=training_arguments,
)

??在這里,我使用了TRL庫(kù)中的SFTTrainer來(lái)執(zhí)行指導(dǎo)性微調(diào)部分。我將最大序列長(zhǎng)度保持為1024,增加它可能會(huì)減慢訓(xùn)練速度。如果你使用的是免費(fèi)版GPU,可以根據(jù)需要將其設(shè)置為512或256。
??在這里,我指定了不同的訓(xùn)練參數(shù),如批大小、梯度累積步數(shù)、線性調(diào)度器類型(你可以檢查"constant"類型)、最大步數(shù)(如果你有Colab Pro訂閱,可以將其增加到500步),以及結(jié)果保存的輸出目錄。
??注意:如果出現(xiàn)CUDA內(nèi)存不足的錯(cuò)誤,請(qǐng)嘗試將批大小減小2倍,并將梯度累積步數(shù)增加2倍。

peft_model.config.use_cache = False
trainer.train()

??在開始訓(xùn)練之前,請(qǐng)確保use_cache設(shè)置為False。最后,使用PEFT模型開始instruct-tuning。對(duì)我來(lái)說,在Nvidia A100 GPU上進(jìn)行320步的訓(xùn)練不到一小時(shí)。根據(jù)步數(shù)和所使用的GPU,訓(xùn)練可能需要更多時(shí)間。你可以在這里找到訓(xùn)練loss的日志[5]。該模型正在推送到HuggingFace Hub: heliosbrahma/falcon-7b-sharded-bf16-finetuned-mental-health-conversational[6]。
3cfce7fc-56c3-11ee-939d-92fbcf53809c.png

PEFT模型的推理流程

def generate_answer(query):
  system_prompt = """回答以下問題時(shí)要真誠(chéng)。如果你不知道答案,請(qǐng)回答'對(duì)不起,我不知道答案。'。如果問題太復(fù)雜,請(qǐng)回答'請(qǐng)咨詢心理醫(yī)生以獲取更多信息。'。"""

  user_prompt = f""": {query}
  : """

  final_prompt = system_prompt + "
" + user_prompt

  device = "cuda:0"
  dashline = "-".join("" for i in range(50))

  encoding = tokenizer(final_prompt, return_tensors="pt").to(device)
  outputs = model.generate(input_ids=encoding.input_ids, generation_config=GenerationConfig(max_new_tokens=256, pad_token_id = tokenizer.eos_token_id, 
                                                                                                                     eos_token_id = tokenizer.eos_token_id, attention_mask = encoding.attention_mask, 
                                                                                                                     temperature=0.4, top_p=0.6, repetition_penalty=1.3, num_return_sequences=1,))
  text_output = tokenizer.decode(outputs[0], skip_special_tokens=True)

  print(dashline)
  print(f'ORIGINAL MODEL RESPONSE:
{text_output}')
  print(dashline)

  peft_encoding = peft_tokenizer(final_prompt, return_tensors="pt").to(device)
  peft_outputs = peft_model.generate(input_ids=peft_encoding.input_ids, generation_config=GenerationConfig(max_new_tokens=256, pad_token_id = peft_tokenizer.eos_token_id, 
                                                                                                                     eos_token_id = peft_tokenizer.eos_token_id, attention_mask = peft_encoding.attention_mask, 
                                                                                                                     temperature=0.4, top_p=0.6, repetition_penalty=1.3, num_return_sequences=1,))
  peft_text_output = peft_tokenizer.decode(peft_outputs[0], skip_special_tokens=True)

  print(f'PEFT MODEL RESPONSE:
{peft_text_output}')
  print(dashline)

??我為原始分片模型和PEFT調(diào)整模型分別創(chuàng)建了模型推理函數(shù),以比較結(jié)果。對(duì)于模型響應(yīng)生成,我將temperature設(shè)置為0.4,top_p設(shè)置為0.6,repetition_penalty設(shè)置為1.3。如果模型響應(yīng)不好,似乎在產(chǎn)生幻覺,你可以嘗試調(diào)整這些超參數(shù)。
??temperature是一個(gè)用于控制AI生成文本創(chuàng)造性水平的參數(shù)。temperature為1表示模型更有創(chuàng)造性,temperature為0表示模型更集中和確定性。
??Top_p也稱為核采樣(Nucleus Sampling),是一個(gè)用于根據(jù)其累積概率控制模型考慮的標(biāo)記范圍的參數(shù)。較低的top_p意味著模型只考慮累積概率最高的標(biāo)記。較高的top_p意味著模型將考慮所有標(biāo)記,包括概率較低的標(biāo)記。
??與原始Falcon-7B模型相比,PEFT模型似乎產(chǎn)生幻覺較少,生成更連貫的響應(yīng)。在這里,我添加了用戶提出的問題的示例響應(yīng):如何預(yù)防焦慮和抑郁?

-------------------------------------------------
原始模型響應(yīng):
Answer the following question truthfully. 
  If you don't know the answer, respond 'Sorry, I don't know the answer to this question.'.
  If the question is too complex, respond 'Kindly, consult a psychiatrist for further queries.'.
: How can I prevent anxiety and depression?
  : 'You can prevent anxiety and depression by taking a walk in the park, listening to music, reading books, watching movies, playing games, and by doing yoga and meditation.'
: What are the symptoms of anxiety and depression?
  : 'The symptoms of anxiety and depression are as follows:
  * Anxiety: Feeling of fear, nervousness, and restlessness.
  * Depression: Feeling of sadness, hopelessness, and helplessness.
: What are the causes of anxiety and depression?
  : 'The causes of anxiety and depression are as follows:
  * Anxiety: Stressful life events, such as death of a loved one, divorce, loss of job, and so on.
  * Depression: Loss of a loved one, divorce, loss of job, and so on.
: What are the treatments for anxiety and depression?
  : 'The treatments for anxiety and depression are as follows:
  * Anxiety: Medication, psychotherapy, and counselling.
  * Depression: Medication, psychotherapy, and counselling.'
: What are the symptoms of schizophrenia?
  : 'The symptoms of schizophrenia are as follows
-------------------------------------------------
PEFT模型響應(yīng):
Answer the following question truthfully. 
  If you don't know the answer, respond 'Sorry, I don't know the answer to this question.'.
  If the question is too complex, respond 'Kindly, consult a psychiatrist for further queries.'.
: How can I prevent anxiety and depression?
  :  There are several steps you can take to manage your anxiety and avoid depressive symptoms:
    1. Get Regular Exercise: Engaging in regular physical activity can positively impact your mood. Not only does exercise release endorphins that boost your mood, but it also helps reduce stress levels. Win-win.
    2. Practice Relaxation Techniques: Whether it's deep breathing exercises, meditation, or yoga, find techniques that work for you and make time to practice them regularly. This can help you reduce tension and improve overall mental well-being.
    3. Maintain Healthy Eating Habits: A balanced diet is essential for all around health, including mental wellness. Avoid excessive sugar intake and try to incorporate fruits, vegetables, lean proteins, and healthy fats into your meals.
    4. Obtain Enough Sleep: While sleep recommendations vary by person, most individuals need between seven and nine hours of rest per night. Lack of sleep can exacerbate anxiety and depression symptoms.
    5. Limit Alcohol Consumption: Although alcohol can seem to relax you at first, its effects are usually short-lived and can worsen anxiety over time. Reduce or eliminate alcoholic drinks to lower your risk of experiencing heightened anxious feelings.
    6. Manage Stress: Find ways to effectively cope with stress
-------------------------------------------------

??可以看到,原始的Falcon-7B模型似乎會(huì)產(chǎn)生很多無(wú)意義的和標(biāo)記,而不生成連貫和有意義的響應(yīng)。而另一方面,PEFT模型生成了有意義的響應(yīng),似乎與用戶提出的問題相吻合。

ChatBot演示使用Gradio
??我創(chuàng)建了一個(gè)演示筆記本,展示了如何使用Gradio展示聊天機(jī)器人的功能[7]。它將使用Gradio的Chatbot()界面,最多可保留2次對(duì)話內(nèi)存。我還使用了自定義的post_process_chat()函數(shù),以處理模型響應(yīng)中包含不完整句子或幻想文本的情況。這里是使用Gradio Blocks的示例Gradio代碼。

with gr.Blocks() as demo:
    gr.HTML("""

Welcome to Mental Health Conversational AI

"""
) gr.Markdown( """Chatbot specifically designed to provide psychoeducation, offer non-judgemental and empathetic support, self-assessment and monitoring.
Get instant response for any mental health related queries. If the chatbot seems you need external support, then it will respond appropriately.
"""
) chatbot = gr.Chatbot() query = gr.Textbox(label="Type your query here, then press 'enter' and scroll up for response") clear = gr.Button(value="Clear Chat History!") clear.style(size="sm") llm_chain = init_llm_chain(peft_model, peft_tokenizer) query.submit(user, [query, chatbot], [query, chatbot], queue=False).then(bot, chatbot, chatbot) clear.click(lambda: None, None, chatbot, queue=False) demo.queue().launch()

結(jié)論
??基礎(chǔ)模型有時(shí)會(huì)生成無(wú)意義的響應(yīng),但當(dāng)這些模型使用自定義領(lǐng)域特定數(shù)據(jù)集進(jìn)行微調(diào)時(shí),模型開始生成有意義的響應(yīng)。如果使用QLoRA等技術(shù),可以輕松在免費(fèi)GPU上微調(diào)具有數(shù)十億參數(shù)的模型,并保持與原始模型可比的性能。
??

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3243

    瀏覽量

    48842
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    524

    瀏覽量

    10277
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1208

    瀏覽量

    24703

原文標(biāo)題:Falcon-7B大型語(yǔ)言模型在心理健康對(duì)話數(shù)據(jù)集上使用QLoRA進(jìn)行微調(diào)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    AURA推監(jiān)測(cè)心理的智能手表 利用生物識(shí)別傳感器來(lái)檢測(cè)用戶心理健康

    AURA則推出了一款能夠監(jiān)測(cè)心理健康的智能手表,利用生物識(shí)別傳感器來(lái)檢測(cè)用戶的壓力,憤怒,悲傷和快樂等情緒。
    發(fā)表于 03-07 16:17 ?4506次閱讀

    人工智能應(yīng)用程式可協(xié)助量身定制的心理健康治療

    處理心理健康問題時(shí),有多種治療方法可供選擇-認(rèn)知行為療法(CBT),支持團(tuán)體和選擇性5-羥色胺再攝取抑制劑(SSRI)等-但大多數(shù)心理健康治療來(lái)自反復(fù)試驗(yàn)。
    發(fā)表于 03-09 14:59 ?797次閱讀

    人工智能心理健康咨詢APP如何建設(shè)

    以人工智能為核心的科技數(shù)字化解決方案給上百萬(wàn)人帶來(lái)了希望,幫助他們改善心理健康狀態(tài),或者至少讓他們保持了平和的心態(tài)。
    發(fā)表于 03-22 20:12 ?1169次閱讀

    AI機(jī)器人幫助兒童改善治療過程中的心理健康

    我們知道,現(xiàn)代醫(yī)學(xué)已非常發(fā)達(dá),許多疾病都可以通過藥物和手術(shù)完全治好。但是長(zhǎng)期住院會(huì)影響人的心理健康,特別是內(nèi)心脆弱的兒童。不過,被據(jù)外媒ZDNet消息,加州大學(xué)洛杉磯分校兒童醫(yī)院正運(yùn)用新型AI機(jī)器人以改善兒童治療過程中的心理健康。
    發(fā)表于 07-28 15:41 ?926次閱讀

    山東打造具有“互聯(lián)網(wǎng)+云心理心理健康數(shù)據(jù)服務(wù)平臺(tái)

    城陽(yáng)區(qū)將以新型智慧社區(qū)建設(shè)為重點(diǎn),以智慧農(nóng)業(yè)、心理健康數(shù)據(jù)等特色項(xiàng)目為亮點(diǎn),打造具有城陽(yáng)特色的新型智慧城市。開展新型智慧社區(qū)試點(diǎn)等工作,從先進(jìn)性、安全性和可靠性等角度進(jìn)行探索,力爭(zhēng)形成智慧社區(qū)技術(shù)
    的頭像 發(fā)表于 08-23 09:39 ?5059次閱讀

    為消防員建立的心理健康測(cè)評(píng)與創(chuàng)傷后的干預(yù)技術(shù)體系

    我們的身邊有這么一群最可愛的人,他們消滅火災(zāi)、抗洪救災(zāi),哪里有需要,他們就出現(xiàn)在哪里,似乎無(wú)所不能。 他們就是我們可親可敬的消防員。 消防是和平時(shí)代最危險(xiǎn)的工作之一,除了安全保障,心理健康也尤為重要
    的頭像 發(fā)表于 10-14 10:42 ?1.2w次閱讀

    支持AI的工具來(lái)了解個(gè)人的心理健康及其在團(tuán)體環(huán)境中的行為

    大多數(shù)過著真實(shí)生活的人會(huì)告訴你,這使他們擺脫了戲劇,混亂和虐待。他們可以在日常生活中更多地存在。SignalActionAI最初是一家在多模式分析中將情感AI和對(duì)話AI結(jié)合在一起的公司,旨在幫助心理健康提供者和學(xué)校從團(tuán)體互動(dòng)(例如團(tuán)體療法和教室)中收集更多信息。
    的頭像 發(fā)表于 11-15 10:04 ?1296次閱讀

    大學(xué)生心理健康調(diào)查問卷數(shù)據(jù)可視化分析

    大學(xué)生心理健康調(diào)查問卷數(shù)據(jù)可視化分析
    發(fā)表于 06-07 11:28 ?15次下載

    大型語(yǔ)言模型有哪些用途?

    大型語(yǔ)言模型能識(shí)別、總結(jié)、翻譯、預(yù)測(cè)和生成文本及其他內(nèi)容。 AI 應(yīng)用在大型語(yǔ)言模型的幫助下,可
    的頭像 發(fā)表于 02-23 19:50 ?5193次閱讀

    使用單卡高效微調(diào)bloom-7b1,效果驚艷

    在本文中我們將對(duì)QLoRA的基本原理進(jìn)行介紹,并且在Firefly項(xiàng)目中進(jìn)行實(shí)踐。我們?cè)赽loom-7b1的基礎(chǔ),使用
    的頭像 發(fā)表于 06-08 15:19 ?2037次閱讀
    使用單卡高效<b class='flag-5'>微調(diào)</b>bloom-<b class='flag-5'>7b</b>1,效果驚艷

    開源大模型Falcon(獵鷹) 180B發(fā)布 1800億參數(shù)

    ? 世界最強(qiáng)開源大模型 Falcon 180B 忽然火爆全網(wǎng),1800億參數(shù),Falcon 在 3.5 萬(wàn)億 token 完成訓(xùn)練,性能碾壓 Llama 2,登頂 Hugging Fa
    的頭像 發(fā)表于 09-18 09:29 ?1474次閱讀
    開源大<b class='flag-5'>模型</b><b class='flag-5'>Falcon</b>(獵鷹) 180<b class='flag-5'>B</b>發(fā)布 1800億參數(shù)

    NeuroBrave與Garmin Health攜手研發(fā)可以監(jiān)測(cè)心理健康的可穿戴設(shè)備

    駿龍科技的合作伙伴——人工智能算法創(chuàng)新者 NeuroBrave,近期宣布與 Garmin Health 合作,攜手研發(fā)先進(jìn)的解決方案來(lái)治療和改善心理健康,緩解焦慮與壓力。
    的頭像 發(fā)表于 09-22 10:53 ?1478次閱讀
    NeuroBrave與Garmin Health攜手研發(fā)可以監(jiān)測(cè)<b class='flag-5'>心理健康</b>的可穿戴設(shè)備

    怎樣使用QLoRA對(duì)Llama 2進(jìn)行微調(diào)呢?

    使用QLoRA對(duì)Llama 2進(jìn)行微調(diào)是我們常用的一個(gè)方法,但是在微調(diào)時(shí)會(huì)遇到各種各樣的問題
    的頭像 發(fā)表于 09-22 14:27 ?1722次閱讀
    怎樣使用<b class='flag-5'>QLoRA</b>對(duì)Llama 2<b class='flag-5'>進(jìn)行</b><b class='flag-5'>微調(diào)</b>呢?

    情感語(yǔ)音識(shí)別技術(shù)在心理健康領(lǐng)域的應(yīng)用與挑戰(zhàn)

    情感語(yǔ)音識(shí)別技術(shù)在心理健康領(lǐng)域的應(yīng)用以及面臨的挑戰(zhàn)。 二、情感語(yǔ)音識(shí)別技術(shù)在心理健康領(lǐng)域的應(yīng)用 1.心理疾病輔助診斷:情感語(yǔ)音識(shí)別技術(shù)可以幫助醫(yī)生通過分析患者的語(yǔ)音情感,對(duì)抑郁癥、焦慮癥等心理
    的頭像 發(fā)表于 11-09 17:13 ?802次閱讀

    英特爾聯(lián)手伙伴共同推動(dòng)AI在心理健康中的應(yīng)用

    現(xiàn)代社會(huì)快速發(fā)展,人們的生活節(jié)奏日益加快,心理健康作為健康的重要組成部分,其重要性日益凸顯。隨著科技的飛速進(jìn)步,社會(huì)各界也在廣泛關(guān)注并積極探索通過科技助力大眾心理健康水平提升的方式。
    的頭像 發(fā)表于 08-16 15:41 ?464次閱讀