Thursday, September 14, 2023

Regular Expression to find a string included between two characters

 Base string: This is a test string [more or less]

need to get only more or less (without the brackets). 

Easy done:

(?<=\[)(.*?)(?=\])

Technically that's using lookaheads and lookbehinds. See Lookahead and Lookbehind Zero-Width Assertions. The pattern consists of:

  • is preceded by a [ that is not captured (lookbehind);
  • a non-greedy captured group. It's non-greedy to stop at the first ]; and
  • is followed by a ] that is not captured (lookahead).

Alternatively you can just capture what's between the square brackets:

\[(.*?)\]

and return the first captured group instead of the entire match.

Source: https://stackoverflow.com/questions/1454913/regular-expression-to-find-a-string-included-between-two-characters-while-exclud

Wednesday, September 13, 2023

Google sheet scripts

 

Duplicate inactive sheet and Rename based in active cell data

function EXPORT() {

    var ss = SpreadsheetApp.getActiveSpreadsheet();
    var sti = ss.getSheetByName('Template');
    var sta = ss.getSheetByName('Booking Confirmation');
    var ti = sta.getRange('C7').getValue();

    sti.copyTo(ss).setName(ti);

    var stc = ss.getSheetByName(ti);
    var source = sta.getRange('A5:C23');
    var dest = stc.getRange('A5:C23');

    source.copyTo (dest, {contentsOnly: true});

}​

Sunday, September 10, 2023

AI Stable Diffusion và các khái niệm cần biết

 

AI Stable Diffusion là một mô hình AI sinh học mới nhất có thể chuyển đổi văn bản thành hình ảnh, cung cấp một cấp độ sáng tạo và tiện lợi mới cho các nhà sáng tạo nội dung và nghệ sĩ. Công nghệ hoạt động bằng cách sử dụng "chuyển đổi phong cách" để bắt chước các phong cách của hình ảnh trong tập dữ liệu huấn luyện của nó và tạo ra một hình ảnh tương ứng dựa trên đầu vào văn bản.

 

AI Stable Diffusion - một trong những hoạ sĩ trí tuệ nhân tạo (AI) mới nhất trên thị trường, với khả năng vẽ nhân vật đồ họa độc đáo. Mặc dù ra đời sau Midjourney và Dall-e 2, nhưng Stable Diffusion nhanh chóng bắt kịp những đàn anh của mình. Điều đặc biệt của Stable Diffusion là nó hoàn toàn miễn phí và có sẵn mã nguồn và trọng số mô hình để mọi người có thể tiếp cận dễ dàng, đóng góp vào sự phổ biến nhanh chóng của nó. Trong khi đó, Midjourney phải trả phí và Dall-e 2 chỉ được giới hạn cho một số người dùng nhất định.

Các bước dùng AI Stable Diffusion vẽ ảnh nhân vật đồ họa

Cài đặt AI Stable Diffusion

Hiện nay, để cài đặt Stable Diffusion, người dùng có thể lựa chọn giữa hai phương pháp: cài đặt trên PC hoặc sử dụng Google Colab. Bạn có thể tham khảo một số video hướng dẫn trên Youtube

 

Tuy nhiên, để đạt hiệu suất tốt nhất của AI Stable Diffusion, người dùng nên ưu tiên sử dụng Google Colab, bởi nó cung cấp tài nguyên miễn phí và đủ dùng, giúp tránh những trục trặc có thể xảy ra khi sử dụng máy tính yếu. Với bộ nhớ RAM lên tới khoảng 13GB và VRAM hay GPU lên tới 15GB, Google Colab sẽ là sự lựa chọn lý tưởng để sử dụng AI Stable Diffusion một cách hiệu quả.


Dùng Controlnet và điều chỉnh các thông số phù hợp

Trước khi sử dụng AI Stable Diffusion để vẽ ảnh nhân vật đồ họa, bạn cần biết các khái niệm sau:

  • ControlNet: cách để AI vẽ một bức tranh đẹp từ bản vẽ tay và giữ các chi tiết của nó.
  • Model (Checkpoint): AI được train từ một bộ dữ liệu lớn và được sử dụng để tạo ra ảnh.
  • Lora: phương pháp fine-tune model hoặc thay đổi phong cách ảnh.

Để sử dụng Stable Diffusion và tạo ra hình ảnh từ sketch, bạn có thể làm theo các bước sau:

  • Bước 1: Tải model và lora từ CivitAI về, mình chọn Meinamix_meinaV8 và Lora RaidenShogunRealistic và lưu vào thư mục tương ứng.
  • Bước 2: Truy cập phần ControlNet, upload bản vẽ tay nhân vật mà bạn muốn AI tạo ra, sau đó chọn Model Canny hoặc Scribble để AI tạo ra hình từ sketch. Sau đó, bật Enable để kích hoạt ControlNet.
  • Bước 3: Điều chỉnh tỷ lệ của ảnh tạo ra bằng hai thông số width và high sao cho tỉ lệ này trùng khớp với tỉ lệ của bản vẽ tay mà bạn nhập vào.
  • Bước 4: Nhập lệnh Prompt, trong đó có hai loại prompt là Positive Prompt và Negative Prompt. Positive Prompt là thông tin về các yêu cầu, điều kiện mà bạn muốn AI tạo ra trong ảnh, còn Negative Prompt là các điều kiện mà bạn muốn AI hạn chế không tạo ra trong ảnh. Bạn có thể nhập các lệnh Prompt như sau:

Positive Prompt: beautiful girl, (modern), lighting,((beautiful face)), ((colorful clothes)), (ultra realistic, raw photo:1.2, 8k), (modern city background:1.2), ((blue hair))lora:raidenShogunRealistic_raidenshogunHandsfix:0.7

Negative Prompt: ((extra fingers, mutated hands)), ((poorly drawn hands)), ((poorly drawn face)), (((mutation))), (((deformed))), blurry, ((bad anatomy)), (((bad proportions))), ((extra limbs)), cloned face, (((disfigured))), ((missing arms)), ((missing legs)),(fused fingers), (too many fingers),ugly, tiling, cross-eye, body out of frame, blurry, bad art, bad anatomy, (((bad face)))

  • Bước 5: Bấm nút Generate và chờ đợi kết quả. Nếu không hài lòng với kết quả, bạn có thể thay đổi chỉ số Sampling Methods và Batch Count để tùy chỉnh số lượng ảnh tạo ra.

Một số lỗi thường gặp và cách khắc phục khi sử dụng Stable Diffusion tạo ảnh AI

1. Lỗi ảnh chân dung có hai đầu

Để tránh tình trạng ảnh tạo ra bị lỗi như có hai đầu người, bạn nên chọn kích thước ảnh là hình vuông (tỷ lệ 1:1), tốt nhất là 512×512.

2. Lệnh prompt “full body” bị bỏ qua.

Dù bạn đã dùng prompt là full boby nhưng ảnh tạo ra vẫn không có đủ toàn thân như mong muốn bạn có thể xử lý theo 2 cách sau:

  • Mô tả thêm phần thân dưới, nên thêm vào câu nhắc prompt các từ: standing, long dress, legs, shoes.
  • Chọn kích thước ảnh chiều cao lớn hơn chiều rộng.

3. Xử lý lỗi xuất hiện ở phần khuôn mặt và đôi mắt.

Để khắc phục khuôn mặt và mắt bị biến dạng, không hoàn hảo bạn nên:

  • Đánh dấu vào lựa chọn Resto Face.
  • Nếu bản SD nào không có lựa chọn này có thể vào link CodeFormer upload ảnh lỗi lên để sửa mặt và mắt cho đẹp hơn.

4. Hình ảnh người mẫu lỗi với tay bị bóp méo, có quá nhiều hoặc quá ít ngón tay.

Stable Diffusion thường được cho là khó khăn trong phần xử lý ở phần bàn tay và ngón tay. Nếu gặp các lỗi ở phần tay, bạn nên thử theo 2 cách sau:

  • Thêm các từ khóa mô tả bàn tay và ngón tay vào câu nhắc, điều này giúp AI nhận biết và xử lý bàn tay có chi tiết hơn. Ví dụ bạn có thể thêm “beautiful hands” và “detailed fingers” vào prompt.
  • Cách khắc phục thứ hai là sử dụng inpainting. Tạo một mặt nạ trong khu vực có vấn đề. Sử dụng inpainting để tạo nhiều hình ảnh và chọn hình ảnh bạn thích.

Thư viện model checkpoint sử dụng cho Stable Diffusion

Cộng đồng sử dụng Stable Diffusion đang phát triển nhanh chóng. Ngoài những model được training mặc định bạn cũng có thể tìm và tải các model checkpoint khác để chạy cho SD của mình. Sau khi tải về bạn để vào vào thư mục Models->Stable-diffusion là có thể sử dụng. Bạn có thể tìm thấy các hướng dẫn về cách sử dụng Stable Diffusion cũng như thư viện model, checkpoint, lora của SD được chia sẻ trên các hội nhóm và website. Dưới đây là vài website mà bạn có thể tham khảo khi mới bắt đầu:

  • civitai.com
  • Arthub.ai
  • lexica.art
  • stable-diffusion-art.com
  • https://rentry.org/sdmodels
  • https://github.com/Maks-s/sd-akashic
  • mpost.io/best-100-stable-diffusion-prompts-the-most-beautiful-ai-text-to-image-prompts/

Câu hỏi thường gặp khi cài đặt và sử dụng Stable Diffusion

1. Stable Diffusion có hoạt động trên GPU AMD không?

Không. Stable Diffusion chỉ hoạt động trên GPU NVIDIA. Tuy nhiên, nếu máy tính của bạn đang dùng GPU AMD bạn có thể chạy bản NMKD Stable Diffusion GUI Portable này.

2. Stable Diffusion có miễn phí không?

Có. Stable Diffusion là mô hình mở vì vậy nó miễn phí, bạn có thể tải xuống và cài đặt trên bất kỳ máy tính cá nhân nào.

3. Stable Diffusion chạy được trên điện thoại không?

Không. Stable Diffusion là công cụ AI đòi hỏi phải có máy tính cấu hình trung bình với GPU NVIDIA từ 4GB mới có thể chạy được. Nếu máy tính của bạn cấu hình yếu, bạn có thể sử dụng phương án cài đặt Stable Diffusion thông qua dịch vụ Google Colad

 

 

Source: https://topchuyengia.vn/tin-tuc-hot/ai-stable-diffusion-ve-anh-nhan-vat-do-hoa

Cài Stable Diffusion, tạo hình bằng AI miễn phí nhờ máy tính cá nhân

Hiện giờ đã có rất nhiều giải pháp tạo hình ảnh từ những câu lệnh anh em đưa ra. Midjourney giờ thu tiền hàng tháng để anh em lên Discord gửi câu lệnh tạo hình ảnh. Bing Chat với sức mạnh của DALL-E cho anh em tạo ra những hình ảnh cơ bản nhờ sức mạnh của máy chủ Azure. Adobe thì có Firefly tích hợp trong Photoshop. Hầu hết chúng đều bắt anh em bỏ tiền, còn miễn phí như Bing Chat thì chất lượng hình thấp và không có nhiều giải pháp tùy chỉnh câu lệnh nếu muốn sửa hình.

Vậy là chúng ta có một giải pháp khác, miễn phí hoàn toàn: Stable Diffusion WebUI do AUTOMATIC1111 trên Github tạo ra. Ứng dụng mô hình ngôn ngữ được Stability AI phát triển, anh em có thể tận dụng sức mạnh phần cứng của máy tính cá nhân để tạo ra những hình ảnh theo ý muốn của bản thân mà không mất một đồng nào cả.


Điều đó đưa chúng ta đến với hai lựa chọn, chạy Stable Diffusion trên macOS và trên máy tính Windows. Trên MacOS, mọi chuyện cực kỳ đơn giản vì có bên đã làm một ứng dụng tên là DiffusionBee, chỉ việc lên trang web của nhà phát triển tải về và cài đặt vào máy Mac của anh em là xong.

Một vấn đề duy nhất, Diffusion Bee chỉ dùng được trên những cấu hình trang bị chip Apple Silicon, không hỗ trợ Mac chạy chip Intel. Yêu cầu thứ hai, máy Mac của anh em sẽ phải cập nhật lên phiên bản macOS Monterey trở lên mới cài được DiffusionBee.

Nếu thỏa mãn được cả hai điều kiện trên, anh em chỉ cần lên trang chủ của DiffusionBee và ấn nút tải bản cho macOS: https://diffusionbee.com/. Sau đó cài phần mềm vào máy tính, rồi khởi động. Bản cài sẽ tải về những thứ cần để anh em tạo hình bằng thuật toán AI, bao gồm cả model, thường gọi là checkpoint về. Những checkpoint này về cơ bản là mô hình ngôn ngữ đã được huấn luyện, chỉ cần đọc lệnh prompt anh em nhập vào phần mềm là sẽ bắt đầu nội suy tạo ra hình ảnh theo từ khóa:

DiffusionBee - Stable Diffusion App for AI Art

DiffusionBee is the easiest way to generate AI art on your computer with Stable Diffusion. Completely free of charge.
 diffusionbee.com


Tinhte_SD1.jpg

Cần để ý những tùy chọn Advanced Options trong phần mềm. Hiểu rõ những thông số này sẽ cho phép anh em làm ra những tấm hình ưng ý hơn:

  • Image Size: Kích thước hình tạo ra. DiffusionBee không hỗ trợ những thuật toán AI nâng chi tiết hình ảnh, và mô hình Stable Diffusion cơ bản được huấn luyện để tạo ra những tấm hình ở chất lượng 512x12 pixel là tối ưu nhất.
  • Steps: Số bước mô hình dữ liệu nội suy hình ảnh. Số bước càng cao thì hình càng có xu hướng chính xác và chi tiết, nhưng mất thời gian để nội suy hơn. Số bước quá thấp thì tạo hình nhanh, nhưng chất lượng chi tiết thì rất thấp.
  • Seed: Tham số thuật toán AI dựa vào để tạo hình. Cái này tương đối quan trọng. Bình thường tham số sẽ là một giá trị ngẫu nhiên. Nhưng nếu tấm hình trước đó anh em thấy ưng ý về chi tiết và bố cục, hãy giữ con số Seed đó lại và tinh chỉnh từ khóa. Nếu không, để Seed ngẫu nhiên thì mỗi lần sẽ ra một tấm hình khác nhau hoàn toàn về cách nội suy.
  • Guidance Scale: Giá trị của tham số này từ 1 đén 30. Số càng cao thì thuật toán AI sẽ càng tuân thủ nghiêm ngặt từ khóa anh em đưa ra. Còn giá trị càng thấp thì tác phẩm AI tạo ra sẽ càng có xu hướng “sáng tạo.”


Trên macOS mọi thứ tương đối dễ, nhưng cũng ít lựa chọn điều khiển thuật toán hơn trong quá trình nâng cấp hình ảnh. Còn trên Windows, quy trình cài đặt cũng như yêu cầu cấu hình cũng khác, phức tạp hơn một chút so với macOS, nhưng bù lại là anh em có thêm sự tự do khi dùng Stable Diffusion tạo hình bằng thuật toán AI.

Đầu tiên là yêu cầu cấu hình để cài Stable Diffusion WebUI:

  • Hệ điều hành Windows 10 trở lên.
  • Card đồ họa của Nvidia, vì Stable Diffusion WebUI chỉ hỗ trợ xử lý dựa trên tập lệnh và nhân CUDA trên GPU của Nvidia. Card rời cũng phải có VRAM tối thiểu 4GB trở lên. Đương nhiên trong quá trình nội suy, card đồ họa sở hữu VRAM càng lớn thì càng có lợi. Nhưng không phải ai cũng sở hữu card RTX 3090 hay 4090 để thử sáng tạo cùng AI.
  • Cũng có những giải pháp khác tương tự như AUTOMATIC1111, ví dụ như OnnxDiffuserUI, hỗ trợ card đồ họa Radeon của AMD, hoặc tùy chỉnh AUTOMATIC1111 để nó hỗ trợ card AMD. Cái này mình xin phép để dành sang một bài viết khác, vì cách “vượt rào” tương đối dài.

Nếu đạt được hai yêu cầu trên thì chúng ta đi đến bước cài Stable Diffusion WebUI:

  • Bước 1: Tải Python phiên bản mới nhất cho máy tính Windows. Anh em lên trang web của Python: https://www.python.org/downloads/release/python-31010/, rồi chọn bản cài Windows Installer (64-bit), tải về máy tính và cài đặt. Lưu ý: Khi cài Python, đừng quên ấn tick vào ô "Add Python 3.10 to PATH.
Tinhte_SD2.jpg

Python Release Python 3.10.10

The official home of the Python Programming Language
 python.org

QUẢNG CÁO



  • Bước 2: Tải và cài đặt Git for Windows tại đây: https://git-scm.com/download/win. Anh em sẽ cần Git để cài và cập nhật AUTOMATIC1111, vì đây là giải pháp phần mềm hỗ trợ quản lý code.
  • Bước 3: Sau khi cài đặt cả Python lẫn Git, anh em truy cập vào https://github.com/AUTOMATIC1111/stable-diffusion-webui, ấn vào nút Code, rồi chọn Download ZIP để tải WebUI về máy tính.
Tinhte_SD3.jpg
Git - Downloading Package
 git-scm.com


  • Bước 4: Giải nén file ZIP vừa tải về từ GitHub, để nó vào một chỗ dễ nhớ, Desktop chẳng hạn.
  • Bước 5: Tự tải Checkpoint. Mình khuyến cáo anh em khi mới bắt đầu, hãy chọn checkpoint gốc của Stable Diffusion. Bản SD 2.1 được StabilityAI cho phép tải về ở đây: https://huggingface.co/stabilityai/stable-diffusion-2-1-base. Anh em ấn vào dòng dưới đây để tải file v2-1_512-ema-pruned.ckpt về máy tính.

    stabilityai/stable-diffusion-2-1-base · Hugging Face

    We’re on a journey to advance and democratize artificial intelligence through open source and open science.
     huggingface.co

    Tinhte_SD4.jpg
    Vấn đề như thế này, không giống DiffusionBee trên macOS có sẵn checkpoint Stable Diffusion mà nhà phát triển ứng dụng tự động cập nhật, bản thân Stable Diffusion cũng chỉ là một phiên bản mô hình ngôn ngữ được nghiên cứu một cách phổ quát. Từ những phiên bản SD, mới nhất là phiên bản 2.1, rất nhiều người khác sẽ lấy nó làm nền tảng để huấn luyện những mô hình khác phục vụ đúng nhu cầu. Anh em có thể lên hai trang web Hugging Face  Civitai để tìm thêm những checkpoint khác được huấn luyện theo hướng chuyên biệt hóa trong quá trình tạo ra hình ảnh.
  • Bước 6: Tải xong file v2-1_512-ema-pruned.ckpt, anh em mở folder “stable-diffusion-webui” đã giải nén trước đó, chọn tới folder models/Stable-diffusion rồi bỏ file checkpoint đã tải về vào trong thư mục ấy.
  • Bước 7: Quay trở lại thư mục “stable-diffusion-webui”, anh em tìm tới tệp tin tên là webui.bat, mở file này lên. Một ô cửa sổ cmd sẽ hiện ra, trông giống như thế này:
Tinhte_SD5.jpg
Vì được khởi động lần đầu tiên nên phần mềm sẽ tải về đầy đủ những thứ nó cần để vận hành WebUI, bao gồm cả những mô hình nâng cấp hình ảnh, hay những plug-in cần thiết. Quá trình này sẽ diễn ra từ 5 đến 15 phút tùy thuộc vào tốc độ đường truyền mạng internet của anh em. Chỉ cần ngồi chờ tới khi cửa sổ cmd đưa ra dòng “Running on local IRL: http://127.0.0.1:7860” là thành công.

  • Bước 8: Mở trình duyệt, gõ http://127.0.0.1:7860 vào ô địa chỉ. Giao diện WebUI sẽ hiện ra cho anh em bắt đầu tạo hình ảnh từ thuật toán AI:
Tinhte_SD6.jpg


Nhìn giao diện WebUI có lẽ anh em sẽ thấy hơi ngợp so với DiffusionBee trên macOS mình chia sẻ ở trên. Nhưng một khi đã nắm rõ hết mọi chi tiết cùng tính năng của từng chi tiết, thì anh em sẽ nhận ra công cụ này mạnh và tự do hơn rất nhiều so với DiffusionBee:


  • StableDiffusion checkpoint: Mô hình đã được huấn luyện để anh em tạo hình ảnh nhờ từ khóa.
  • Prompt: Ô gõ từ khóa để thuật toán tạo hình ảnh.
  • Negative prompt: Những từ khóa có thể tạo ra những chi tiết hình ảnh anh em không mong muốn, gõ những từ khóa này thì thuật toán sẽ lờ chúng đi trong quá trình nội suy hình ảnh.
  • Sampling method: Giải pháp lấy mẫu trong quá trình nội suy. Mỗi giải pháp lấy mẫu lại phù hợp với một dạng hình ảnh khác nhau. Có cái hợp với DDIM, có cái lại hợp hơn với DPM2 a. Chọn sampler nào phụ thuộc hoàn toàn vào quá trình thử nghiệm của anh em.
  • Restore faces: Dùng thuật toán CodeFormer để tinh chỉnh chi tiết gương mặt cho chân thực.
  • Tiling: Tạo ra những hình ảnh lặp đi lặp lại, rất hữu ích khi chế ra những hoa văn họa tiết mới.
  • Hires. fix: Dùng những thuật toán khác để tiếp tục nội suy, tăng độ phân giải hình ảnh.
  • Upscaler: Lựa chọn thuật toán để nội suy tăng độ phân giải hình ảnh.
  • Upscale by: Tỷ lệ tăng kích thước hình ảnh. Anh em đừng để quá cao, vì dễ nội suy hỏng do hết VRAM. Hình cỡ lớn có thể tạo ra ở tab Extra, tốn ít tài nguyên máy tính hơn so với việc tăng kích thước hình cùng lúc với quá trình nội suy của AI.
  • Hires steps: Số bước thuật toán nội suy dùng để tăng độ phân giải và chi tiết hình ảnh.
  • Denoising strength: Mức độ can thiệp của thuật toán nâng cấp hình ảnh, chèn lên thuật toán tạo ra hình ảnh trước đó. Số càng thấp thì can thiệp càng ít.
  • CFG Scale: Viết tắt của Classifier Free Guidance, giống hệt DiffusionBee, số càng nhỏ thì hình ảnh càng có tính sáng tạo.
  • Seed: Tham số thuật toán dùng nội suy hình ảnh.

Sau khi đã làm quen xong hết những chi tiết quan trọng và cần thiết để tạo ra tấm hình ưng ý, giờ là lúc anh em ngồi tìm hiểu và gõ những từ khóa để thuật toán làm việc. Mình xin phép lấy một ví dụ vui, cụ thể như thế này:

  • Từ khóa nội suy: ((darth vader riding a vespa scooter on the street of raining Tokyo)), reflection on the ground, neon billboards, cyberpunk, Tokyo night, rembrandt light, fantasy, dramatic sky, cinematic, fisheye lens, f1.8, hyper realistic, ultra detail, photorealistic, high contrast
  • Số liệu nội suy: Steps: 35, Sampler: DPM++ SDE Karras, CFG scale: 6, Seed: 786709107, Face restoration: CodeFormer, Size: 768x512, Model hash: 88ecb78256, Model: v2-1_512-ema-pruned, Denoising strength: 0.2, Hires upscale: 2, Hires upscaler: R-ESRGAN 4x+
Đến đây là lúc mỗi mô hình ngôn ngữ khác nhau, được huấn luyện theo cách khác nhau phát huy tác dụng. Mỗi mô hình dựa trên Stable Diffusion đều có thế mạnh và nhược điểm khác nhau. Anh em muốn tạo ra tấm hình ưng ý nhất luôn luôn phải trải qua quá trình thử sai để tìm ra lựa chọn tối ưu, tạo ra hình ảnh đẹp mắt nhất:

Vanilla SD 2.1 model:

1.jpg

Deliberate V2:

2.jpg

Illuminati Diffusion V1.0:

3.jpg

Realism Engine V1.0:

4.jpg

Mình lấy cùng một tham số nội suy để mô tả cách từng mô hình vận hành, còn việc tinh chỉnh từ khóa, thay đổi tham số cũng như lựa chọn mô hình ngôn ngữ và cả sampler nội suy, thiết nghĩ đó cũng là một nghệ thuật để tạo ra những bức hình ưng ý nhất dựa vào Stable Diffusion.

Yêu cầu của AUTOMATIC1111 Stable Diffusion WebUI là card đồ họa Nvidia của anh em phải có 8GB VRAM trở lên để phục vụ quá trình nội suy. Nhưng điều đó không đồng nghĩa với việc những anh em đang dùng card đồ họa ít bộ nhớ hơn không chơi được Stable Diffusion.

  • Bước 1: Anh em vào folder gốc stable-diffusion-webui, tìm tới tệp tin tên webui-user.bat.
  • Bước 2: Chuột phải webui-user.bat và chọn Edit.
  • Bước 3: Tìm tới dòng set COMMANDLINE_ARGS=, thay dòng này bằng set COMMANDLINE_ARGS=--xformers --medvram
  • Bước 4: Lưu file webui-user.bat lại, rồi khởi động WebUI bằng file này thay cho webui.bat như trên.
Giải pháp này cho phép anh em sở hữu card đồ họa với 4 hoặc 6GB VRAM vẫn dùng được WebUI, với tốc độ xử lý hình ảnh nhanh hơn, nhưng đương nhiên chi tiết và chất lượng hình ảnh đầu ra sẽ bị ảnh hưởng.


Đối với checkpoint gốc của StabilityAI, v2-1_512-ema-pruned.ckpt, mọi chuyện sẽ không có vấn đề gì. Nhưng khi anh em mày mò những mô hình ngôn ngữ khác tải từ CivitAI chẳng hạn, bỏ vào folder model và tải cả file config đuôi .yaml vào folder tổng hợp mô hình ngôn ngữ, mở lại WebUI lên, ấn nút tạo hình ảnh thì thấy lỗi như thế này:

Tinhte_SD7.jpg

Lý do của lỗi này là card đồ họa của anh em không hỗ trợ xử lý half-type trong quá trình nội suy. Những người đang dùng card RTX 40 series rất dễ gặp lỗi này. Cũng có một vài trường hợp khác ví dụ như vài ngày gần đây, cơ sở dữ liệu của CivitAI gặp lỗi, tải những model checkpoint mới trên trang web này về hầu hết không dùng được, toàn hiện lỗi NansException.

Cách giải quyết nó như thế này:

  • Bước 1: Tìm tệp tin webui-user.bat trong folder gốc stable-diffusion-webui, chuột phải chọn Edit.
  • Bước 2: Tìm tới dòng set COMMANDLINE_ARGS, sau dấu bằng thêm cụm --no-half-vae vào ngay phía sau, rồi sau đó lưu file này lại.
  • Bước 3: Khởi động WebUI bằng file webui-user.bat thay cho webui.bat như trên..
  • Bước 4: Trong giao diện WebUI trên trình duyệt, anh em vào tab Settings, chọn mục User Interface, ở dòng Quicksettings list, dán sd_model_checkpoint, upcast_attn vào ô nhập liệu.
Tinhte_SD8.jpg
  • Bước 5: Cũng trong Settings, chọn mục Stable Diffusion, tick vào ô Upcast cross attention layer to float32. Sau đó ấn nút Apply Settings, rồi ấn tiếp Reload UI, hai nút màu cam rất to trong hình screenshot:
Tinhte_SD9.jpg


Source:

https://tinhte.vn/thread/huong-dan-anh-em-cai-stable-diffusion-tao-hinh-bang-ai-mien-phi-nho-may-tinh-ca-nhan.3651314/