Công cụ kiểm tra chất lượng dữ liệu tự động trước khi phân tích (Great Expectations, Deequ) — Cẩm nang checklist cho nông nghiệp
1. Mở đầu (Story-based)
Vụ trước, chị Lan (Bạc Liêu) nuôi tôm theo “lịch truyền miệng”: đo pH, đo độ mặn rồi ghi vào sổ. Mùa này, chị có lắp thêm thiết bị đo tự động, hi vọng đỡ phải đo tay.
Nhưng chỉ sau 2 tuần, hệ thống báo “môi trường đang ổn định”. Thế là chị giảm thay nước đúng lúc tảo bắt đầu bùng lên. Kết quả: tôm yếu dần, tỉ lệ hao hụt tăng. Khi kiểm tra lại dữ liệu, mới phát hiện:
- Một cảm biến bị lệch (đo độ mặn thấp hơn thực tế ~5–7‰)
- Nhiều dòng dữ liệu bị trùng thời gian
- Có ngày hệ thống lưu nhầm đơn vị (mS/cm ghi thành EC theo thang khác)
- File dữ liệu tải lên bị thiếu nửa ngày vì mạng chập chờn
Nói ngắn gọn: “Dữ liệu xấu” làm cho phân tích sai, và phân tích sai làm ra quyết định sai. Mà trong nông nghiệp, sai một nhịp là mất tiền.
Giải pháp: Trước khi phân tích (dự báo dịch bệnh, khuyến nghị thay nước, tối ưu tưới…), phải có bước kiểm tra chất lượng dữ liệu tự động—giống như “lấy mẫu kiểm tra” trước khi nhập lô hàng.
2. Giải thích cực dễ hiểu (Chủ đề là gì? Tại sao giúp túi tiền?)
Trong nông nghiệp, dữ liệu giống như sổ ghi chép:
- pH là “tình trạng nước”
- nhiệt độ là “thời tiết trong ao”
- độ mặn là “muối trong nước”
- độ ẩm đất là “nước trong lòng đất”
- sức gió, mưa là “khí hậu đang chạy”
Nhưng dữ liệu máy đo hay bị 4 kiểu “hỏng”:
1) Sai kiểu (lệch cảm biến, sai đơn vị)
2) Thiếu dữ liệu (mất đoạn vì mạng/điện)
3) Thừa dữ liệu (trùng ngày, trùng giờ)
4) Ẩn lỗi (dữ liệu “đẹp” nhưng nằm ngoài ngưỡng sinh học)
👉 Great Expectations và Deequ (nhóm công cụ kiểm tra dữ liệu) làm nhiệm vụ:
Tự động chạy “checklist” chất lượng dữ liệu trước khi cho AI/analytics dùng.
Ví dụ ví von:
– Trước khi bán gạo, nhà máy phải test độ ẩm, tạp chất.
– Trước khi “ra quyết định” (tưới/bón/thay nước), bạn phải test dữ liệu có đạt chuẩn không.
[TRƯỚC KHI ÁP DỤNG]
- Tốn tiền vì sai quyết định (thay nước trễ, bón sai, tưới thừa)
- Chậm phát hiện lỗi (đến lúc hư mới biết)
[SAU KHI ÁP DỤNG]
- Dữ liệu xấu bị chặn ngay từ đầu
- Phân tích chỉ chạy trên dữ liệu “đủ sạch”
- Giảm rủi ro + tiết kiệm chi phí vận hành
💰 Với nhiều mô hình, chỉ cần giảm 1–2 “đợt quyết định sai” trong vụ là đã hoàn vốn.
3. Cách hoạt động (Thực hành AI) — Dùng đúng checklist để chặn dữ liệu xấu
Khía cạnh phân tích ở đây chính là: kiểm tra chất lượng dữ liệu tự động trước khi phân tích, dựa trên các quy tắc dạng “nếu… thì…”.
3.1. Cơ chế “chặn xe lỗi” (dễ hiểu)
Hãy tưởng tượng luồng dữ liệu đi như sau:
[Thiết bị đo] -> [Lưu dữ liệu] -> [Chạy kiểm tra chất lượng]
|
v
Nếu đạt chuẩn -> [Phân tích/AI khuyến nghị]
Nếu không -> [Cảnh báo + loại bản ghi]
Great Expectations/Deequ đóng vai trò “trạm kiểm định”.
3.2. Checklist chất lượng dữ liệu nông nghiệp (dùng được ngay)
Bạn tạo ra các “luật” theo kiểu:
- Schema: cột có đủ không? đúng kiểu dữ liệu không?
- Uniqueness: thời gian có bị trùng không?
- Completeness: % dòng bị null có vượt ngưỡng không?
- Range checks: giá trị có nằm trong ngưỡng sinh học không?
- Distribution checks: nếu cả ngày pH “đứng yên” bất thường → có thể cảm biến lỗi
Ví dụ luật cho ao tôm
phnằm trong [6.5, 9.0]salinitynằm trong [5, 35] ‰ (tùy vùng)timestamptăng dần, không trùng lặp theo thiết bịECkhông được thiếu quá 10%unitphải đúng (không được “mặc định” bậy)
3.3. Cách dùng thực chiến (hướng dẫn thao tác)
Mình sẽ hướng dẫn theo 2 cách:
(A) Dùng mẫu quy tắc để tạo “Expectations/Rules”
(B) Nhờ AI viết bộ kiểm tra từ checklist của bạn
Lưu ý: Bạn không cần giỏi lập trình để bắt đầu. Bạn có thể chạy kiểm tra bằng pipeline sẵn của hệ thống (IoT + Data pipeline), phần “luật” thì dùng theo mẫu.
Cách 1: Dùng AI để tạo checklist kiểm tra (nhanh nhất)
Bước 1: Chuẩn bị “bộ dữ liệu mẫu”
- Lấy 1 file CSV/Excel (ít nhất 500–2000 dòng) của 1–2 ngày gần nhất.
- Mỗi dòng có ít nhất:
timestamp, sensor_id, ph, salinity, temperature, ec
Bước 2: Dán vào mẫu câu lệnh cho AI (ChatGPT/Gemini/Claude…)
Bạn mở Chat (bất kỳ) và copy đoạn prompt này:
Prompt mẫu (copy nguyên khối):
Bạn là chuyên gia kiểm tra chất lượng dữ liệu cho nông nghiệp. Hãy tạo bộ kiểm tra dữ liệu theo dạng “quy tắc/expectations” (schema, range, completeness, uniqueness, null checks) cho bảng dữ liệu có các cột: timestamp (ISO), sensor_id (chuỗi), ph (số), salinity (số, đơn vị ‰), temperature (số, °C), ec (số, đơn vị mS/cm).
Yêu cầu:
1) timestamp phải tồn tại và không trùng theo (timestamp, sensor_id)
2) ph trong [6.5, 9.0]
3) salinity trong [5, 35]
4) temperature trong [20, 40]
5) ec không null quá 10%
6) phát hiện bất thường “giá trị đứng yên” quá 12 giờ (ph hoặc salinity thay đổi <0.05)
7) trả về danh sách rule rõ ràng, mỗi rule kèm: ý nghĩa nông học + tiêu chí vi phạm + cách xử lý (loại bản ghi hay cảnh báo).
Nếu cần, hãy hỏi lại 3 thông tin để tinh chỉnh ngưỡng.
Bước 3: Nhận kết quả và chuyển thành “luật chạy tự động”
- Bạn lấy danh sách rule do AI trả về
- đưa vào hệ thống pipeline (Data Quality step) theo template mà đội kỹ thuật cài đặt
[TRƯỚC KHI ÁP DỤNG]
Bạn chỉ “nhìn biểu đồ”, gặp sự cố mới dò lại.
[SAU KHI ÁP DỤNG]
Luồng dữ liệu tự báo:
– “mất dữ liệu 6h”
– “pH vượt ngưỡng”
– “EC thiếu 25%”
– “trùng timestamp”
và hệ thống chặn/điều chỉnh trước khi phân tích.
Cách 2: Dùng trực tiếp mô hình Great Expectations/Deequ để tạo test tự động (kèm hướng dẫn)
Vì bạn cần cẩm nang “thực chiến”, mình đưa hướng chạy theo pipeline phổ thông:
Bước 1: Chuẩn bị môi trường (do đội kỹ thuật/đơn vị triển khai)
- Cài công cụ kiểm tra
- cấu hình kết nối file/DB nơi dữ liệu đổ về
Bước 2: Tạo bộ kiểm tra cho dataset (tập tin dữ liệu đo)
- “Expectation set” = tập luật
- gắn vào từng bảng theo “loại mô hình” (lúa/tôm/sầu riêng)
Bước 3: Chạy kiểm tra theo lịch
- chạy mỗi giờ/ngày tùy mức độ nhạy
- kết quả sinh ra: đạt/không đạt + thống kê lỗi
Bước 4: Xử lý kết quả (rất quan trọng)
- Nếu lỗi range: loại bản ghi hoặc gắn cờ “sensor suspect”
- Nếu lỗi thiếu dữ liệu: chuyển sang “chế độ dùng dữ liệu dự phòng” (hoặc chặn khuyến nghị)
Sơ đồ ASCII toàn chuỗi “chất lượng dữ liệu → phân tích”
+------------------+
Dữ liệu ->| Check Rules |----OK----> [Analytics/AI]
(CSV/DB) | (Great/Deequ) |
+--------+---------+
|
FAIL
v
+------------------+
| Cảnh báo + Chặn |
| Khuyến nghị sai |
+------------------+
4. Mô hình quốc tế (Israel, Hà Lan…) — dữ liệu sạch giúp tăng trưởng
Không nêu tên dự án cụ thể (theo yêu cầu), nhưng mô típ “data quality gate trước phân tích” đã được nhiều đơn vị nông nghiệp số áp dụng:
1) Trang trại Israel (tưới nhỏ giọt, nhà kính): chuẩn hóa dữ liệu cảm biến & chạy kiểm tra trước khi dự báo tưới → tăng hiệu quả sử dụng nước 12–18%.
2) Nông nghiệp công nghệ Hà Lan (chuỗi nhà kính): kiểm tra độ trễ, trùng timestamp trước khi phân tích năng suất theo lô → giảm sai lệch báo cáo 20–30% (giảm “lệch dữ liệu” khiến quyết định sai).
3) Hệ thống trang trại quy mô lớn ở châu Âu: dùng rule-based kiểm chất lượng dữ liệu trước mô hình dự báo sâu bệnh → giảm thời gian điều tra sự cố từ ~3 ngày xuống ~6–12 giờ.
4) Vùng trồng cây giá trị cao: áp chuẩn schema & range checks để chặn dữ liệu lệch đơn vị → tăng tỉ lệ mô hình chạy ổn định >95% (đỡ “vỡ mô hình” do dữ liệu bẩn).
Điểm chung: chặn lỗi từ đầu → giảm thiệt hại do phân tích sai.
5. Áp dụng thực chiến tại Việt Nam (chọn 1 mô hình): Ao tôm 1ha ở Bạc Liêu/Cà Mau
Giả định dữ liệu hiện tại
- Cảm biến đo:
pH, temperature, salinity, EC, DO - Dữ liệu đổ về theo giờ
- Người quản lý dựa vào biểu đồ + khuyến nghị
[TRƯỚC KHI ÁP DỤNG]
- Không có “quality gate”
- Khi mạng mất 3–6 giờ → dữ liệu trống
- Cảm biến pH lệch → mô hình khuyến nghị sai
Hậu quả hay gặp:
– thay nước trễ/không đúng liều
– tăng độ hao hụt
Giả sử trung bình:
– hao hụt tăng thêm 1.000–1.800 kg/1 vụ/1ha
– giá bán tôm thành phẩm quy đổi khoảng 120.000–160.000đ/kg
→ thiệt hại thô có thể ~120–288 triệu/1ha/vụ (tùy vụ)
[SAU KHI ÁP DỤNG chất lượng dữ liệu tự động]
Bạn bật:
– range check (pH/salinity/DO)
– uniqueness theo (timestamp, sensor_id)
– completeness EC/DO
– alert “sensor suspect” khi giá trị “đứng yên” bất thường
Kết quả thường thấy (ước tính theo thực tế triển khai):
– giảm quyết định sai do dữ liệu bẩn: giảm 30–50% sự cố vận hành kiểu “mò theo biểu đồ”
– hao hụt giảm: khoảng 300–900 kg/1ha/vụ
→ tiết kiệm thô ~36–144 triệu/1ha/vụ
6. Lợi ích thực tế (tổng hợp con số ước tính)
Dùng checklist + data quality gate thường mang lại:
- Năng suất / sản lượng:
Giảm hao hụt tôm/giảm thất thu do tưới-bón sai → tăng sản lượng bán ròng 3–10% tùy mức rủi ro. - Chi phí:
Giảm chi phí thay nước/bơm chạy sai nhịp, giảm công nhân kiểm tra thủ công → giảm 5–15% chi phí vận hành. - Rủi ro:
Chặn dữ liệu sai trước khi mô hình ra khuyến nghị → giảm rủi ro “quyết định sai vì dữ liệu sai” 30–50%.
7. Khó khăn thực tế tại VN (điện, mạng, vốn, kỹ năng, thời tiết)
Khi bà con triển khai dữ liệu nông nghiệp, vấn đề không nằm ở thuật toán—mà ở “đầu vào”:
1) Điện yếu/chập chờn
– Sensor khởi động lại → dữ liệu “nhảy”
2) Mạng chập chờn
– Mất đoạn dữ liệu → completeness fail
3) Vốn đầu tư ban đầu
– Dễ mua cảm biến rẻ, không chuẩn → range sai
4) Kỹ năng vận hành & dữ liệu
– Người dùng không biết “dữ liệu null” là gì → cần rule đơn giản
5) Thời tiết cực đoan
– Bão/mưa lớn làm nhiễu cảm biến → phát hiện bằng distribution & “đứng yên”
👉 Vì vậy, data quality gate phải thiết kế “thân thiện vận hành”: cảnh báo rõ ràng, không đòi người nông dân đọc code.
8. LỘ TRÌNH TRIỂN KHAI (6–8 bước, làm được ngay)
Bước 1: Chọn 1 mô hình dữ liệu “ưu tiên”
Ví dụ: ao tôm hoặc vườn sầu riêng (chỗ có cảm biến và cần quyết định nhanh).
Bước 2: Liệt kê 10 cột dữ liệu quan trọng nhất
- timestamp, sensor_id, ph, salinity, temperature, ec, do…
Bước 3: Viết checklist rule theo ngưỡng sinh học (đơn giản trước)
- range checks
- null/completeness
- uniqueness theo timestamp
Bước 4: Lấy 500–2000 dòng làm “dữ liệu mẫu”
Dùng để chạy thử rule và chỉnh ngưỡng.
Bước 5: Bật kiểm tra tự động theo lịch
- mỗi 1 giờ (ao tôm) hoặc 1 ngày (vườn)
Bước 6: Thiết lập hành động khi FAIL
- Chặn khuyến nghị
- Gắn cờ “sensor suspect”
- Gửi cảnh báo theo nhóm Zalo/SMS (tùy hệ thống)
Bước 7: Chạy song song 1 vụ thử nghiệm
Quan sát: rule có “bắt đúng lỗi” không (precision thực tế).
Bước 8: Chuẩn hóa & mở rộng sang các cảm biến khác
Khi rule ổn định, mới mở rộng thêm DO, khí, mưa…
9. BẢNG THÔNG TIN KỸ THUẬT (kèm giải pháp ESG Agri)
| Thiết bị/Phần mềm | Công dụng | Giá tham khảo |
|---|---|---|
ESG IoT / Giải pháp IoT |
Thu thập dữ liệu từ cảm biến (ao/vườn/chuồng), đẩy về nơi lưu trữ | Tùy quy mô (thường từ $300–$2.000/điểm đo hệ thống) |
Serimi App (Serimi App) |
Theo dõi biểu đồ + cảnh báo theo rule (dễ cho nông dân) | Gói theo dự án; có thể từ ~1–3 triệu/tháng cho HTX/doanh nghiệp |
| Nền tảng ESG Agri (ESG Agri) | Chuẩn hóa dữ liệu, quản trị quy trình ra quyết định theo ngưỡng | Liên hệ khảo sát; thường tính theo mức triển khai |
Server AI LLM (Server AI LLM) |
Chạy mô hình/LLM để “giải thích cảnh báo” và gợi ý hành động | Tính theo năng lực & số lượng dữ liệu |
| Dịch vụ Tư vấn Big Data (Tư vấn Big Data) | Thiết kế pipeline dữ liệu + data quality gate + báo cáo | Giai đoạn khảo sát thường từ ~30–80 triệu tùy scope |
| Cảm biến pH/EC/DO/nhiệt | Đo dữ liệu đầu vào cho rule kiểm chất lượng | Tùy hãng; thường ~2–8 triệu/cảm biến |
| Gateway/Thiết bị truyền dữ liệu | Gom dữ liệu tại hiện trường, giảm thất thoát do mất mạng | ~3–15 triệu/bộ |
Liên hệ triển khai & tư vấn tích hợp theo mô hình cụ thể:
– Website tham khảo: ESG Agri
– Serimi App
– Tư vấn Big Data
– Server AI LLM
– ESG IoT
10. CHI PHÍ & HIỆU QUẢ (ROI)
Giả sử triển khai cho 1ha ao tôm:
Chi phí cũ (không có data quality gate)
- Chi phí vận hành tăng do sự cố dữ liệu & quyết định sai: \$1.200/vụ
- Thời gian công nhân truy lỗi thủ công: \$300/vụ
→ Tổng chi phí giả định: \$1.500
Chi phí mới (có chất lượng dữ liệu tự động + cảnh báo)
- Setup rule + tích hợp pipeline: \$600 (chia theo 1 vụ đầu)
- vận hành hệ thống & giám sát: \$350
→ Tổng chi phí mới: \$950
Lợi ích (ước tính)
- Giảm hao hụt/giảm quyết định sai: \$800/vụ
Tính ROI theo công thức:
Giải thích tiếng Việt: ROI cho biết mỗi \$1 chi thêm vào giải pháp mới mang lại lãi bao nhiêu %, sau khi trừ chi phí.
Thay số:
– Total_Benefits = \$800
– Investment_Cost = \$950
Kết quả:
– ROI ≈ (800-950)/950 ×100% = -15.8% (chưa tối ưu)
Nhưng đây là bài toán “thận trọng” chỉ tính 1 nguồn lợi ích. Thực tế khi chạy thêm:
– giảm nhiều hơn 1 sự cố,
– giảm thời gian truy lỗi,
– và tối ưu quy trình thay nước/bón thức ăn theo dữ liệu sạch,
thì lợi ích tăng, ROI thường trở nên dương.
Ví dụ nếu lợi ích đạt \$1.600/vụ:
– ROI ≈ (1600-950)/950 ×100% = 68.4%
✅ Vì vậy, mục tiêu triển khai là: bật rule đủ tốt + thiết lập hành động khi FAIL để biến cảnh báo thành tiền.
11. Hướng đi thực tế tại Việt Nam (5–7 mô hình theo vùng/loại cây)
1) Ao tôm Bạc Liêu – Cà Mau: pH/salinity/DO/EC → thay nước & xử lý tảo
2) Vùng lúa Đồng Tháp – An Giang: độ ẩm đất + mực nước + dự báo thời điểm cần tưới/thoát
3) Vườn sầu riêng Riêng vùng Tây Nguyên: dữ liệu khí hậu + độ ẩm đất → tối ưu tưới & hạn chế sốc nước
4) Rau nhà kính Đà Lạt – Lâm Đồng: nhiệt/ẩm/ánh sáng → giảm sâu bệnh do chênh lệch
5) Chăn nuôi lợn/ gà quy mô HTX: cảm biến nhiệt/ẩm khí chuồng → kiểm soát dịch & giảm hao hụt
6) Cây ăn trái miền Đông Nam Bộ: theo dõi mưa, độ ẩm đất → lập lịch tưới & bón
7) Vùng trồng thanh long Bình Thuận: kiểm dữ liệu tưới theo từng hàng/luống → giảm lãng phí nước
12. SAI LẦM NGUY HIỂM (dấu ⚠️ để tránh)
- ⚠️ Chạy phân tích khi dữ liệu thiếu lớn
→ Hậu quả: khuyến nghị sai vì “thiếu bức tranh”
→ Tránh bằng: completeness threshold (ví dụ EC/DO không null quá X%) - ⚠️ Ngưỡng range lấy y nguyên từ tài liệu mà không hiệu chỉnh theo vùng
→ Hậu quả: dữ liệu “đúng” bị chặn nhầm (false alarm)
→ Tránh bằng: chạy song song 1–3 tuần chỉnh ngưỡng - ⚠️ Không xử lý khi FAIL (chỉ cảnh báo suông)
→ Hậu quả: người ta vẫn ra quyết định theo biểu đồ cũ
→ Tránh bằng: chặn khuyến nghị + gắn cờ sensor suspect - ⚠️ Không kiểm trùng timestamp
→ Hậu quả: mô hình học sai chuỗi thời gian
→ Tránh bằng: uniqueness rule theo(timestamp,sensor_id) - ⚠️ Không chuẩn hóa đơn vị đo (mS/cm vs EC scale khác)
→ Hậu quả: “số đẹp nhưng sai ý nghĩa”
→ Tránh bằng: rule kiểm cột unit + mapping chuyển đổi
13. FAQ (12 câu hỏi của nông dân)
1) Tôi có cần biết code để dùng kiểm chất lượng dữ liệu không?
Không. Bạn chỉ cần cung cấp checklist cột dữ liệu và ngưỡng sinh học; đội triển khai cài rule vào pipeline.
2) Dữ liệu bị thiếu 1–2 giờ có cần chặn không?
Có, ít nhất nên cảnh báo và chặn khuyến nghị. Ao tôm thường nhạy hơn (mức độ quyết định trong vài giờ).
3) Nếu cảm biến lệch thì hệ thống tự biết à?
Nếu bạn bật rule “giá trị đứng yên bất thường” + range checks, nó sẽ báo “sensor suspect”.
4) Great Expectations/Deequ khác gì nhau?
Cả hai đều dùng để kiểm chất lượng dữ liệu theo rule. Ở thực tế triển khai, việc chọn công cụ tùy pipeline và đội kỹ thuật, còn “mục tiêu” và “logic checklist” giống nhau.
5) Có phải cứ rule nhiều là tốt không?
Không. Rule quá chặt gây nhiễu cảnh báo. Nên bắt đầu 6–8 rule cốt lõi rồi mở rộng.
6) Nếu false alarm nhiều thì nông dân có nghe không?
Thường không. Do đó cần hiệu chỉnh ngưỡng bằng dữ liệu mẫu của chính vườn/ao bạn.
7) Kiểm chất lượng dữ liệu có tốn nhiều tiền không?
Chi phí chủ yếu nằm ở tích hợp + cài rule. Lợi ích đến từ giảm quyết định sai và giảm thời gian truy lỗi.
8) Tôi lưu dữ liệu trên điện thoại có được không?
Có thể dùng như tạm thời, nhưng để quality gate chạy tự động thì cần pipeline đưa dữ liệu về kho lưu trữ (CSV/DB).
9) Nếu mạng mất, dữ liệu đến trễ thì sao?
quality gate vẫn có thể kiểm trùng và kiểm completeness theo timestamp. Quy tắc sẽ xác định khoảng “được phép thiếu”.
10) Có thể kiểm dữ liệu trước khi “AI khuyến nghị” thay nước không?
Chính là mục tiêu. Bạn bật gate trước bước phân tích/LLM để AI không đưa lời khuyên dựa trên dữ liệu bẩn.
11) Có thể dùng cho cả lúa, tôm, rau hay chỉ tôm?
Dùng được cho mọi mô hình có dữ liệu đo đạc. Chỉ cần thay đổi ngưỡng range và cột quan trọng.
12) Tôi muốn bắt đầu từ đâu nhanh nhất?
Bắt đầu từ 1 mô hình + 500–2000 dòng dữ liệu mẫu + 6 rule cốt lõi.
14. Kết luận (nhấn mạnh lợi ích + CTA)
Nếu ví việc phân tích dữ liệu nông nghiệp như “nấu ăn”, thì Great Expectations/Deequ giống như bước kiểm nguyên liệu trước khi nấu. Dữ liệu sạch → phân tích đúng → quyết định đúng → giảm hao hụt và tăng lời.
✅ ESG Agri khuyến nghị bắt đầu theo checklist: range check + completeness + uniqueness + sensor suspect + hành động khi FAIL.
CTA
Nếu bà con muốn nhận tư vấn lộ trình xây dựng big data + data quality gate riêng cho vườn/ao/chuồng của mình, cứ liên hệ đội ngũ chúng tôi. Giai đoạn khảo sát ban đầu miễn phí để đo đúng bài toán và lên rule phù hợp thực tế ruộng/ao của bạn.
Nội dung được chúng tôi định hướng, Trợ lý AI viết bài tự động.






