Active Member
- Bài viết
- 2,335
- Điểm tương tác
- 0
- Điểm
- 36
[font=sans-serif, Arial, Verdana,]Khi nói đến điện toán hiệu năng cao hay High Performance Computing (HPC), chúng ta thường hướng đến việc giải quyết và xử lý một vài loại bài toán. Những bài toán đó thường sẽ rơi vào một trong bốn loại:[/font]
[font=sans-serif, Arial, Verdana,]Nặng về giải quyết (compute intensive) – Một bài toán độc tôn đòi hỏi một lạng lớn tính toán.
Nặng về bộ lưu trữ (memory intensive) – Một bài toán duy nhất đòi hỏi 1 lạng lớn bộ lưu trữ.
Nặng về dữ liệu (data intensive) – Một bài toán duy nhất chuyển động trên một tập tài liệu lớn.
Thông lượng cao (throughput intensive) – Nhiều bài toán không tương quan được thống kê giám sát đồng loạt.[/font]
[font=sans-serif, Arial, Verdana,]nội dung bài viết này sẽ ra mắt chi tiết về HPC giúp đỡ bạn hiểu rõ chân thành và ý nghĩa của chúng trong các công việc giải quyết và xử lý những bài toán thịnh hành được liệt kê ở trên.[/font]
[font=sans-serif, Arial, Verdana,]>>> Xem thêm: bán dell r540[/font]
[font=sans-serif, Arial, Verdana,]những workload nặng về xử lý[/font]
[font=sans-serif, Arial, Verdana,]trước tiên, tất cả chúng ta cùng quan tâm đến các bài toán đòi hỏi nhiều về giải quyết. Phương châm là cung cấp việc làm cho một bài toán độc tôn cho nhiều CPU để giảm thời gian giải quyết và xử lý càng nhiều càng tốt. Để thực hiện điều đó, chúng ta cần tiến hành đi đôi các bước của bài toán. Mỗi process hoặc thread, giải quyết một trong những phần của khối lượng việc làm & triển khai chúng 1 cách cùng theo đó. Những CPU thường cần phỏng vấn trao đổi tài liệu nhanh chóng, đòi hỏi phần cứng chuyên dùng cho sự tiếp xúc. Ví dụ về nhiều chủng loại bài toán này hoàn toàn có thể tìm thấy khi nghiên cứu và phân tích dữ liệu liên quan đến các tác vụ như mô hình hóa trong nghành tài chính, quản trị rủi ro hay quan tâm sức đề kháng. Đây chắc hẳn rằng là phần nhiều nhất trong những tập vấn đề của HPC & là nghành nghề cổ xưa của HPC.[/font]
[font=sans-serif, Arial, Verdana,]Khi nỗ lực giải quyết những vấn đề nặng về giải quyết, bạn cũng có thể nghĩ rằng việc thêm nhiều CPU sẽ giảm thời gian tiến hành. Điều ấy không phải cứ đúng. Phần đông các parallel codebase thường có cái mà tất cả chúng ta gọi bằng scaling-limit. Tại Sao là do hệ thống bị quá tải bởi việc cai trị rất nhiều bản sao, không những thế còn do các ràng buộc căn bản khác.[/font]
[font=sans-serif, Arial, Verdana,]điều này được tóm tắt trong luật định Amdahl.[/font]
[font=sans-serif, Arial, Verdana,]Trong kiến trúc laptop, định luật Amdahl là 1 trong công thức giúp tăng tốc độ định hướng về độ trễ của sự triển khai một nghĩa vụ với khối lượng công việc cố định có thể được Dự kiến của một hệ thống có khoáng sản được cải sinh. Nó được đặt theo tên của nhà khoa học máy tính Gene Amdahl, và đã được trình bày tại sự kiện AFIPS Spring Joint Computer Conference năm 1967.[/font]
[font=sans-serif, Arial, Verdana,]Định luật Amdahl, thường được sử dụng trong điện toán song song để dự đoán sự bức tốc định hướng khi dùng nhiều bộ giải quyết và xử lý. Ví dụ: nếu một chương trình cần 20 giờ sử dụng lõi xử lý đơn và một phần cụ thể chi tiết của chương trình mất một giờ để tiến hành thì không hề song song, trong khi 19 giờ (p = 0,95) thời hạn tiến hành rất có thể được đi đôi bất kể có bao nhiêu bộ giải quyết được dành cho việc triển khai đi đôi chương trình này, thời gian tiến hành tối thiểu không hề thấp hơn một giờ quan trọng đó. Do đó, việc tăng cường triết lý bị giới hạn tối đa 20 lần (1 / (1 – P = 20). Vì Nguyên Nhân này, giải quyết và xử lý đi đôi với rất nhiều bộ giải quyết và xử lý chỉ hữu dụng cho những chương trình có bản chất đi đôi tự nhiên – Wikipedia[/font]
[font=sans-serif, Arial, Verdana,]những workload nặng về bộ lưu trữ[/font]
[font=sans-serif, Arial, Verdana,]các workload nặng về bộ nhớ sẽ cần không ít đến khoảng không bộ lưu trữ lớn, hơn là có không ít CPU. Theo tôi, đây là một trong những các vấn đề khó giải quyết nhất và thường yên cầu sự cẩn trọng cao khi setup nên hệ thống của bạn. Lập trình và chuyển mã sẽ đơn giản dễ dàng hơn vì bộ nhớ lưu trữ sẽ khít sát, được chấp nhận tạo ra một Hình ảnh hệ thống duy nhất. Tuy nhiên, việc tối ưu hóa có thể trở nên gian khổ hơn khi càng kéo dãn xa ngày khởi tạo ban sơ của khối hệ thống vì tính đồng nhất của các component. Theo cổ xưa, trong những data center, bạn sẽ không còn thay thế các sever sau mỗi ba năm một lần. Nếu tất cả chúng ta muốn có nhiều khoáng sản hơn trong cluster, và chúng ta muốn hiệu năng được đồng điệu, bộ nhớ không nhất quán sẽ tạo ra độ trễ thực tế. Chúng ta cũng phải suy nghĩ về sự kết nối giữa CPU & bộ nhớ.[/font]
[font=sans-serif, Arial, Verdana,]thời nay, nhiều phần Một trong những lo lắng đó đã được loại bỏ bởi những máy chủ thịnh hành. Bạn có thể nhu yếu hàng ngàn instance giống nhau có cùng cấu hình và phần cứng, và các Công Ty như Amazon Web Services rất sung sướng cho chúng ta sử dụng chúng.[/font]
[font=sans-serif, Arial, Verdana,]>>> Xem thêm: bán dell r230[/font]
[font=sans-serif, Arial, Verdana,]những workload nặng về tài liệu[/font]
[font=sans-serif, Arial, Verdana,]Đây có lẽ rằng là dòng workload thịnh hành nhất mà chúng ta tìm thấy ngày này và có lẽ là dòng có tương đối nhiều buzzword nhất. Chúng được gọi là những workload Big Data. Workload nặng về tài liệu là dòng workload phù hợp cho những gói ứng dụng như Hadoop hay MapReduce. Chúng ta phân phối dữ liệu cho 1 bài toán cụ thể chi tiết trên nhiều CPU để giảm thời gian thực hiện chúng. Việc làm gần giống rất có thể được tiến hành trên từng data segment, mặc dầu không phải lúc nào cũng như vậy. Đây thực chất là việc nghịch đảo của workload nặng về bộ lưu trữ trong công việc dịch chuyển chóng vánh dữ liệu đến và đi từ những ổ đĩa quan trọng hơn vấn đề liên kết. Loại bài toán đang rất được xử lý trong số workload đó thường là trong nghành nghề dịch vụ Life Science (genomics) hay nghành nghề nghiên cứu và phân tích & có khoanh vùng rộng trong những phần mềm Thương mại dịch vụ, nhất là xung quanh dữ liệu người tiêu dùng và sự tương tác.[/font]
[font=sans-serif, Arial, Verdana,]những workload cần đến thông lượng cao[/font]
[font=sans-serif, Arial, Verdana,]những công việc giải quyết hàng loạt (các công việc có những hoạt động sinh hoạt gần như không đáng kể để triển khai song song cũng giống như những việc làm có ít hoặc không có giao tiếp giữa những CPU) được coi là workload nặng về thông lượng cao. Trong workload thông lượng cao, tất cả chúng ta tập kết vào thông lượng trong một thời gian nhất định hơn là hiệu năng xử lý đối với bất kể bài toán nào. Tất cả chúng ta cung ứng nhiều bài toán một cách chủ quyền trên nhiều CPU để giảm thời hạn thực hiện tổng thể. Những workload này cần:[/font]
[font=sans-serif, Arial, Verdana,]>>> Xem thêm: bán dell r330[/font]
[font=sans-serif, Arial, Verdana,]Nặng về giải quyết (compute intensive) – Một bài toán độc tôn đòi hỏi một lạng lớn tính toán.
Nặng về bộ lưu trữ (memory intensive) – Một bài toán duy nhất đòi hỏi 1 lạng lớn bộ lưu trữ.
Nặng về dữ liệu (data intensive) – Một bài toán duy nhất chuyển động trên một tập tài liệu lớn.
Thông lượng cao (throughput intensive) – Nhiều bài toán không tương quan được thống kê giám sát đồng loạt.[/font]
[font=sans-serif, Arial, Verdana,]nội dung bài viết này sẽ ra mắt chi tiết về HPC giúp đỡ bạn hiểu rõ chân thành và ý nghĩa của chúng trong các công việc giải quyết và xử lý những bài toán thịnh hành được liệt kê ở trên.[/font]
[font=sans-serif, Arial, Verdana,]>>> Xem thêm: bán dell r540[/font]
[font=sans-serif, Arial, Verdana,]những workload nặng về xử lý[/font]
[font=sans-serif, Arial, Verdana,]trước tiên, tất cả chúng ta cùng quan tâm đến các bài toán đòi hỏi nhiều về giải quyết. Phương châm là cung cấp việc làm cho một bài toán độc tôn cho nhiều CPU để giảm thời gian giải quyết và xử lý càng nhiều càng tốt. Để thực hiện điều đó, chúng ta cần tiến hành đi đôi các bước của bài toán. Mỗi process hoặc thread, giải quyết một trong những phần của khối lượng việc làm & triển khai chúng 1 cách cùng theo đó. Những CPU thường cần phỏng vấn trao đổi tài liệu nhanh chóng, đòi hỏi phần cứng chuyên dùng cho sự tiếp xúc. Ví dụ về nhiều chủng loại bài toán này hoàn toàn có thể tìm thấy khi nghiên cứu và phân tích dữ liệu liên quan đến các tác vụ như mô hình hóa trong nghành tài chính, quản trị rủi ro hay quan tâm sức đề kháng. Đây chắc hẳn rằng là phần nhiều nhất trong những tập vấn đề của HPC & là nghành nghề cổ xưa của HPC.[/font]
[font=sans-serif, Arial, Verdana,]Khi nỗ lực giải quyết những vấn đề nặng về giải quyết, bạn cũng có thể nghĩ rằng việc thêm nhiều CPU sẽ giảm thời gian tiến hành. Điều ấy không phải cứ đúng. Phần đông các parallel codebase thường có cái mà tất cả chúng ta gọi bằng scaling-limit. Tại Sao là do hệ thống bị quá tải bởi việc cai trị rất nhiều bản sao, không những thế còn do các ràng buộc căn bản khác.[/font]
[font=sans-serif, Arial, Verdana,]điều này được tóm tắt trong luật định Amdahl.[/font]
[font=sans-serif, Arial, Verdana,]Trong kiến trúc laptop, định luật Amdahl là 1 trong công thức giúp tăng tốc độ định hướng về độ trễ của sự triển khai một nghĩa vụ với khối lượng công việc cố định có thể được Dự kiến của một hệ thống có khoáng sản được cải sinh. Nó được đặt theo tên của nhà khoa học máy tính Gene Amdahl, và đã được trình bày tại sự kiện AFIPS Spring Joint Computer Conference năm 1967.[/font]
[font=sans-serif, Arial, Verdana,]Định luật Amdahl, thường được sử dụng trong điện toán song song để dự đoán sự bức tốc định hướng khi dùng nhiều bộ giải quyết và xử lý. Ví dụ: nếu một chương trình cần 20 giờ sử dụng lõi xử lý đơn và một phần cụ thể chi tiết của chương trình mất một giờ để tiến hành thì không hề song song, trong khi 19 giờ (p = 0,95) thời hạn tiến hành rất có thể được đi đôi bất kể có bao nhiêu bộ giải quyết được dành cho việc triển khai đi đôi chương trình này, thời gian tiến hành tối thiểu không hề thấp hơn một giờ quan trọng đó. Do đó, việc tăng cường triết lý bị giới hạn tối đa 20 lần (1 / (1 – P = 20). Vì Nguyên Nhân này, giải quyết và xử lý đi đôi với rất nhiều bộ giải quyết và xử lý chỉ hữu dụng cho những chương trình có bản chất đi đôi tự nhiên – Wikipedia[/font]
[font=sans-serif, Arial, Verdana,]những workload nặng về bộ lưu trữ[/font]
[font=sans-serif, Arial, Verdana,]các workload nặng về bộ nhớ sẽ cần không ít đến khoảng không bộ lưu trữ lớn, hơn là có không ít CPU. Theo tôi, đây là một trong những các vấn đề khó giải quyết nhất và thường yên cầu sự cẩn trọng cao khi setup nên hệ thống của bạn. Lập trình và chuyển mã sẽ đơn giản dễ dàng hơn vì bộ nhớ lưu trữ sẽ khít sát, được chấp nhận tạo ra một Hình ảnh hệ thống duy nhất. Tuy nhiên, việc tối ưu hóa có thể trở nên gian khổ hơn khi càng kéo dãn xa ngày khởi tạo ban sơ của khối hệ thống vì tính đồng nhất của các component. Theo cổ xưa, trong những data center, bạn sẽ không còn thay thế các sever sau mỗi ba năm một lần. Nếu tất cả chúng ta muốn có nhiều khoáng sản hơn trong cluster, và chúng ta muốn hiệu năng được đồng điệu, bộ nhớ không nhất quán sẽ tạo ra độ trễ thực tế. Chúng ta cũng phải suy nghĩ về sự kết nối giữa CPU & bộ nhớ.[/font]
[font=sans-serif, Arial, Verdana,]thời nay, nhiều phần Một trong những lo lắng đó đã được loại bỏ bởi những máy chủ thịnh hành. Bạn có thể nhu yếu hàng ngàn instance giống nhau có cùng cấu hình và phần cứng, và các Công Ty như Amazon Web Services rất sung sướng cho chúng ta sử dụng chúng.[/font]
[font=sans-serif, Arial, Verdana,]>>> Xem thêm: bán dell r230[/font]
[font=sans-serif, Arial, Verdana,]những workload nặng về tài liệu[/font]
[font=sans-serif, Arial, Verdana,]Đây có lẽ rằng là dòng workload thịnh hành nhất mà chúng ta tìm thấy ngày này và có lẽ là dòng có tương đối nhiều buzzword nhất. Chúng được gọi là những workload Big Data. Workload nặng về tài liệu là dòng workload phù hợp cho những gói ứng dụng như Hadoop hay MapReduce. Chúng ta phân phối dữ liệu cho 1 bài toán cụ thể chi tiết trên nhiều CPU để giảm thời gian thực hiện chúng. Việc làm gần giống rất có thể được tiến hành trên từng data segment, mặc dầu không phải lúc nào cũng như vậy. Đây thực chất là việc nghịch đảo của workload nặng về bộ lưu trữ trong công việc dịch chuyển chóng vánh dữ liệu đến và đi từ những ổ đĩa quan trọng hơn vấn đề liên kết. Loại bài toán đang rất được xử lý trong số workload đó thường là trong nghành nghề dịch vụ Life Science (genomics) hay nghành nghề nghiên cứu và phân tích & có khoanh vùng rộng trong những phần mềm Thương mại dịch vụ, nhất là xung quanh dữ liệu người tiêu dùng và sự tương tác.[/font]
[font=sans-serif, Arial, Verdana,]những workload cần đến thông lượng cao[/font]
[font=sans-serif, Arial, Verdana,]những công việc giải quyết hàng loạt (các công việc có những hoạt động sinh hoạt gần như không đáng kể để triển khai song song cũng giống như những việc làm có ít hoặc không có giao tiếp giữa những CPU) được coi là workload nặng về thông lượng cao. Trong workload thông lượng cao, tất cả chúng ta tập kết vào thông lượng trong một thời gian nhất định hơn là hiệu năng xử lý đối với bất kể bài toán nào. Tất cả chúng ta cung ứng nhiều bài toán một cách chủ quyền trên nhiều CPU để giảm thời hạn thực hiện tổng thể. Những workload này cần:[/font]
- chia thành các phần chủ quyền một cách tự nhiên và thoải mái
- Có không nhiều hoặc không tồn tại giao tiếp CPU-CPU
- Được triển khai trong các process hoặc thread cá biệt trên một CPU (một cách đồng thời)
[font=sans-serif, Arial, Verdana,]>>> Xem thêm: bán dell r330[/font]