কৃত্রিম বুদ্ধিমত্তার পিছনের গণিত - AI যেভাবে চিন্তা করতে শেখে

কৃত্রিম বুদ্ধিমত্তার পিছের গণিত — AI যেভাবে চিন্তা করতে শেখে

সংক্ষিপ্ত সারমর্ম: এই পোস্টে আমরা সহজ ভাষায় ব্যাখ্যা করব — AI বা মেশিন লার্নিং মডেল কিভাবে কাজ করে, এবং এর পেছনের মূল গণিত — লিনিয়ার অ্যালজেব্রা, ক্যালকুলাস, সম্ভাবনা, পরিসংখ্যান, অপ্টিমাইজেশন, তথ্য তত্ত্ব ইত্যাদি। প্রতিটি সেক্টরে বাস্তব উদাহরণ, মৌলিক সূত্র ও ব্যাখ্যা থাকবে যাতে একজন ছাত্র/শিক্ষক সহজেই বোঝে।

কৃত্রিম বুদ্ধিমত্তার পিছনের গণিত.

১ | কেন গণিত শেখা জরুরি — সংক্ষিপ্ত বোঝাপড়া

AI এক কথায় সফটওয়্যার নয়—এটি সংখ্যার সঙ্গে কাজ। ডেটা (সংখ্যা, শব্দ, ছবি) হচ্ছে input; মডেল হচ্ছে সেই সংখ্যাগুলোকে বদলে এমন এক ফাংশনে পরিণত করে যা পূর্বাভাস দেয় বা সিদ্ধান্ত নেয়। এই “ফাংশন”-এর আচরণ বোঝার জন্য গণিত দরকার। গণিত আপনাকে বলে—কেন এবং মডেল কেমন কাজ করছে, কোথায় ভুল আছে, এবং কিভাবে উন্নতি করা যায়।

২ | লিনিয়ার অ্যালজেব্রা — ভেক্টর, ম্যাট্রিক্স, টেনসর

লিনিয়ার অ্যালজেব্রা হলো AI-এর ভিত্তি। ডেটা এবং মডেলের প্যারামিটাররা সংগ্রহে ভেক্টর এবং ম্যাট্রিক্স হিসেবে থাকে। নিচে কয়েকটি মৌলিক ধারণা:

ভেক্টর (Vector)

ভেক্টর হলো সংখ্যার একটি সজ্জিত তালিকা — যেমন v = [2, -1, 0.5]। এটি একটি বিন্দু বা ডেটার বৈশিষ্ট্য (feature) বুঝাতে পারে।

ম্যাট্রিক্স (Matrix)

একাধিক ভেক্টরের সমষ্টি হলো ম্যাট্রিক্স। একটি ছবির পিক্সেল মান, বা একটি ব্যাচের (batch) ইনপুট-ভেক্টরগুলো ম্যাট্রিক্সে সাজায়া নেওয়া হয়।

ম্যাট্রিক্স গুণ (Matrix Multiplication)

মডেলের ফোরওয়ার্ড/লেয়ার হিসাব সাধারণত ম্যাট্রিক্স গুণ। উদাহরণস্বরূপ, একটি সিঙ্গল লেয়ার নিউরাল নেটওয়ার্কে—

y = W · x + b

এখানে W হলো ওজন (weight) ম্যাট্রিক্স, x ইনপুট ভেক্টর, b বায়াস।

টেনসর (Tensor)

টেনসর হলো উচ্চ মাত্রার অর্থাৎ n মাত্রার ফাংশন বা অ্যারে—যেমন রং ধারণ বিশিষ্ট ইমেজ (height × width × channels) একটি 3-D টেনসর।

৩ | ক্যালকুলাস — ডেরিভেটিভ, ইন্টিগ্রেশন ও গ্রেডিয়েন্ট

ক্যালকুলাসই বলে কিভাবে কোনো ফাংশনের আউটপুট ছোটখাটো পরিবর্তনে পরিবর্তিত হয়—এটা জানলেই আমরা মডেলকে ভাল করে প্রশিক্ষণ দিতে পারি।

ডেরিভেটিভ (Derivative) ও গ্রেডিয়েন্ট (Gradient)

একমাত্রিক ফাংশনের ডেরিভেটিভ বলে কিভাবেই দ্রুত সে বাড়ছে বা কমছে। বহু-মাত্রিক ক্ষেত্রে এই ধারণাটাই গ্রেডিয়েন্ট — একটি ভেক্টর যা প্রতিটি প্যারামিটার সম্পর্কে ডেরিভেটিভ রাখে। Gradient-এর দিশা হলো যেখানে লস দ্রুত বাড়ে বা কমে—এটাই নির্দেশ করে কীভাবে প্যারামিটার পরিবর্তন করলে লস কমবে।

Gradient Descent (গ্রেডিয়েন্ট ডিজেন্ট)

মেশিন লার্নিং-এ সবচেয়ে পরিচিত অপ্টিমাইজার হলো Gradient Descent:


  θ := θ - η * ∇L(θ)
  

এখানে θ হলো প্যারামিটার, η হলো লার্নিং রেট (learning rate), আর ∇L(θ) হলো লস ফাংশনের গ্রেডিয়েন্ট। এই আপডেট বারবার চালিয়ে আমরা লস কমাই।

৪ | সম্ভাবনা (Probability) ও পরিসংখ্যান (Statistics)

ডেটা-অনিশ্চয়তাকে মাপতে ও মডেলকে নিশ্চিততা দিতে সম্ভাবনা প্রয়োজন। পরিসংখ্যান ডেটার সারাংশ ও বৈশিষ্ট্য বোঝায়—যেমন গড়, মিডিয়ান, ভ্যারিয়েন্স।

Bayes Theorem (বেইয়েস সূত্র)

Bayesian পদ্ধতি AI-এ প্রায়শই ব্যবহৃত হয়। বেইয়েস সূত্র বলে কিভাবে পূর্বানুমান (prior) ও নতুন তথ্য (likelihood) মিলিয়ে posterior পাওয়া যায়ঃ


  P(A|B) = P(B|A) * P(A) / P(B)
  

যেমন স্প্যাম ফিল্টারিংয়ে ইমেইল-এর কিছু শব্দ থাকার সম্ভাব্যতা দেখে আমরা সিদ্ধান্ত নেই।

পরিসংখ্যানিক পরিমাপ

  • Mean (গড়): ডেটার কেন্দ্রীয় মান।
  • Variance (বিচ্যুতি): ডেটা কেন/how far ডিস্ট্রিবিউটেড।
  • Covariance & Correlation: দুটি ভেরিয়েবলের সম্পর্ক মাপে।

৫ | অপ্টিমাইজেশন ও লস ফাংশন — মডেল কিভাবে 'শিখে'

আমরা যেটা চাই—মডেল যেন ভবিষ্যদ্বাণীতে কম ত্রুটি করে। এজন্য একটি লস (loss) বা কস্ট (cost) ফাংশন নির্ধারণ করা হয়, এবং সেটি সর্বনিম্ন করতে অপ্টিমাইজার ব্যবহার করা হয়।

প্রচলিত লসগুলো

  • Mean Squared Error (MSE): প্রচলিত রিগ্রেশন লস।
  • Cross-Entropy Loss: ক্লাসিফিকেশনের জন্য ব্যবহৃত—লজিস্টিক/সফটম্যাক্স মডেলের ক্ষেত্রে।

Regularization (রেগুলারাইজেশন)

Overfitting এড়াতে আমরা প্যারামিটারকে শাস্তি দেই—এটাই রেগুলারাইজেশন। Two common forms:

  • L2 regularization (Ridge): প্যারামিটার বর্গফল যোগ করা—λ||θ||²
  • L1 regularization (Lasso): প্যারামিটার মান যোগ করা—λ||θ||₁ (sparse solutions)।

৬ | নিউরাল নেটওয়ার্কের গণিত — ফরওয়ার্ড ও ব্যাকপ্রোপাগেশন

একটি নিউরাল নেটওয়ার্কে প্রতিটি লেয়ার ইনপুট নেয়, ওজন ও বায়াস যোগ করে non-linear activation প্রয়োগ করে আউটপুট দেয়। ব্যাকপ্রোপ (backpropagation) হলো সেই পদ্ধতি যা গ্রেডিয়েন্ট গণনা করে ওজন আপডেট করে।

সিম্পল এক-হিডেন লেয়ার উদাহরণ


  z1 = W1 · x + b1
  a1 = σ(z1)
  z2 = W2 · a1 + b2
  y_hat = softmax(z2)    (classification)
  

এখানে σ হলো activation (যেমন ReLU, sigmoid), এবং softmax আউটপুটকে probability বানায়।

ব্যাকপ্রোপের মূল ধারণা

লস L কে প্রতিটি প্যারামিটার সম্পর্কে ডেরিভেটিভ বের করতে chain rule ব্যবহার করা হয়। উদাহরণস্বরূপ, dL/dW2 বের করে W2 আপডেট করা হয়। এই অনুশীলন পদ্ধতিকে gradient descent-এর সাথে মিলিয়ে মডেল শেখানো হয়।

৭ | প্রকট বাস্তব উদাহরণ (প্র্যাকটিক্যাল)

ইমেজ ক্লাসিফিকেশন (Image Classification)

একটি ইমেজকে ক্লাসিফাই করতে কনভল্যুশনাল নিউরাল নেটওয়ার্ক (CNN) ব্যবহার করা হয়। এর গণিত:

  • Convolution: ইনপুট টেনসরের সাথে filter/kernel-এর এসোসিয়েশন-ম্যাট্রিক্স কনভলিউশন।
  • Pooling: স্থানীয় সর্বাধিক/গড় মান নেওয়া।
  • Fully connected layer: অবশেষে ম্যাট্রিক্স গুণে ক্লাস লেবেল পাওয়া।

NLP (Natural Language Processing) — Embeddings ও Word2Vec

ভাষাকে সংখ্যায় রূপান্তর করতে শব্দগুলোকে dense ভেক্টরে (embeddings) রূপান্তর করা হয়। Word2Vec-এর মূলে co-occurrence ও probability মডেল, যেখানে শব্দগুলোর ভেক্টর হল এমন এক প্রতিধ্বনি যে সমান প্রসঙ্গে ব্যবহৃত শব্দগুলো কাছাকাছি থাকে।

রিকমেন্ডার সিস্টেম (Collaborative Filtering)

ব্যবহারকারী-আইটেম র‍্যাঙ্কিংয়ের জন্য ম্যাট্রিক্স ফ্যাক্টরাইজেশন ব্যবহৃত হয় — একটি বড় ইউজার-আইটেম ম্যাট্রিক্সকে দুইটি ছোট ম্যাট্রিক্সে ভাঙ্গা (U ও V) হয়:

R ≈ U · Vᵀ

এখানে U হলো user latent factors, V হলো item latent factors; এরপর dot product করে রেটিং অনুমান করা হয়।

৮ | বিশেষ টপিক: SVD, PCA, Embeddings, Markov Chains

PCA (Principal Component Analysis)

ডেটার মাত্রা হ্রাস করতে PCA ব্যবহার হয়। মূলত covariance matrix-এর Eigen decomposition বা SVD করে সবচেয়ে বড় variance ধারণকারী দিকগুলো ধরে রাখা হয়। এটি ভিজ্যুয়ালাইজেশন ও প্রিপ্রসেসিং-এ কাজে লাগে।

SVD (Singular Value Decomposition)

কোনো ম্যাট্রিক্স M কে U Σ Vᵀ রূপে ভেঙে ফেলা হয়। SVD গ্রাফিক্স, রিকমেন্ডার ও ডেটা কম্প্রেশনে সহায়ক। SVD-এর সূত্র:

M = U Σ Vᵀ

Markov Chain ও HMM (Hidden Markov Model)

সিরিজ ডেটা (time-series)-এ পরবর্তী অবস্থা কেবল বর্তমান অবস্থার উপর নির্ভর করলে সেটিকে Markov Chain বলা হয়। HMM-এ states লুকানো থাকে এবং পর্যবেক্ষণগুলো প্রদত্ত একটি সম্ভাব্যতা তত্ত্বের অধীনে আসে। Speech recognition-এ HMM-এর ব্যবহার প্রচলিত ছিল।

৯ | Overfitting, Regularization ও Bias-Variance ট্রেডঅফ

Overfitting হলো মডেল যেটা ট্রেইনিং ডেটা খুব ভালোভাবে মেমরি করে কিন্তু নতুন ডেটায় ভালো পারফর্ম করে না। Regularization, dropout, বেশি ডেটা, বা সহজ মডেল ব্যবহার করে আমরা এটি কমাতে পারি। Bias-Variance ট্রেডঅফ বলতে বোঝায়—সরল মডেল (হাই.bias) কম ভ্যারিয়েন্স, জটিল মডেল (হাই.variance) কম.bias—রাস্তা হলো মাঝামাঝি ব্যালান্স খোঁজা।

১০ | Reinforcement Learning (RL) — মৌলিক গণিত

RL-এ আমরা একজন এজেন্টকে এমন নীতিতে (policy) শেখাই যা নির্দিষ্ট পুরস্কার (reward) সর্বাধিক করে। গাণিতিক কাঠামো: Markov Decision Process (MDP) — (S, A, P, R, γ) যেখানে S=states, A=actions, P=transition probability, R=reward, γ=discount factor।

Bellman Equation

স্টেট-ভ্যালু ফাংশন V(s)-এর জন্য Bellman equation হল:

V(s) = max_a [ R(s,a) + γ Σ_{s'} P(s'|s,a) V(s') ]

এটিকে সমাধান করেই আমরা অপটিমাল policy বের করি।

১১ | মডেল ইভালুয়েশন — মেট্রিক্স

মডেল ভালো কিনা মাপতে বিভিন্ন মেট্রিক্স ব্যবহৃত হয়:

  • Accuracy: সঠিক পূর্বাভাসের অনুপাত (classification)।
  • Precision & Recall: বিশেষ করে অসমবৃদ্ধি (imbalance) ডেটার ক্ষেত্রে দরকার।
  • F1-score: Precision ও Recall এর হারমোনিক মীন।
  • ROC-AUC: ক্লাসিফায়ারের পারফরম্যান্স সামগ্রিকভাবে মাপে।
  • MSE / MAE: রিগ্রেশন মডেলের জন্য।

১২ | বাস্তব সংখ্যাসূচক উদাহরণ — Gradient Descent-এর ছোট ডেরিভেশন

সহজ ধরণে ধরা যাক লসঃ L(θ) = (y - f(x; θ))² । এখানে আমরা θ সম্পর্কে ∂L/∂θ বের করি ও আপডেট করি। Chain rule ব্যবহার করে প্রতিটি প্যারামিটারের আপডেট নির্ণয় করা হয়—এই ধাপগুলোই ব্যাকপ্রোপের কোর।

১৩ | AI শেখার জন্য স্টেপ-বাই-স্টেপ গাইড (কোর্সওয়াইজ)

নিচে ধাপে ধাপে রোডম্যাপ দিলাম—শূন্য থেকে শুরু করে কাজে লাগানো পর্যন্ত:

  1. প্রোগ্রামিং বেসিক: Python (NumPy, Pandas)।
  2. লিনিয়ার অ্যালজেব্রা: ভেক্টর, ম্যাট্রিক্স অপারেশন, Eigenvalues।
  3. ক্যালকুলাস: ডেরিভেটিভ, গ্রেডিয়েন্ট, partial derivatives।
  4. সম্ভাবনা ও পরিসংখ্যান: বেইয়েস, বিতরণ, hypothesis testing।
  5. মেশিন লার্নিং বেসিক: লিনিয়ার/লজিস্টিক রিগ্রেশন, SVM, Decision Tree।
  6. ডীপ লার্নিং: নিউরাল নেটওয়ার্ক, CNN, RNN, Transformer।
  7. প্রকল্প: একটি সম্পূর্ণ প্রজেক্ট—ইমেজ ক্লাসিফায়ার বা টেক্সট সেন্টিমেন্ট অ্যানালাইসিস।

১৪ | রিসোর্স ও পরামর্শ

কয়েকটি দরকারী রিসোর্স:

  • লিনিয়ার অ্যালজেব্রা: Gilbert Strang (MIT Lecture)
  • ক্যালকুলাস: Khan Academy
  • মেশিন লার্নিং: Andrew Ng (Coursera)
  • ডীপ লার্নিং: DeepLearning.AI
  • প্র্যাকটিস: Kaggle ও Colab

১৫ | জিজ্ঞাস্য (FAQ)

প্রশ্ন: আমি যদি গণিত পছন্দ না করি, AI শেখা কি কঠিন হবে?

উত্তর: গণিতের গভীরে না গেলেও বেসিক লিনিয়ার অ্যালজেব্রা ও ক্যালকুলাস জানা থাকলে অনেক কাজ করা যায়। প্রকৃত পক্ষে প্রাকটিক্যাল স্তরে কোডিং ও বাস্তব উদাহরণ কাজে লাগে।

প্রশ্ন: কোন গণিত বিভাগের ওপর আগে ফোকাস করব?

উত্তর: লিনিয়ার অ্যালজেব্রা → ক্যালকুলাস → সম্ভাবনা/পরিসংখ্যান এই ক্রমটি সহজ ও কার্যকর।

প্রশ্ন: AI-এ সফল হতে কি শুধুই গণিতই দরকার?

উত্তর: গণিত জরুরি, তবে সফটওয়্যার দক্ষতা, ডোমেইন জ্ঞান এবং প্রকল্প-ভিত্তিক অভিজ্ঞতাও সমান গুরুত্বপূর্ণ।

১৬ | সম্পূর্ণ উদাহরণ: Simple Linear Regression (সংক্ষেপে গণিত)

একটি লিনিয়ার রিগ্রেশন মডেলের লস (MSE) ও আপডেট স্টেপ:


  Model: y_hat = w * x + b
  Loss: L = (1/N) Σ (y_i - y_hat_i)^2

  Gradient:
  dL/dw = -(2/N) Σ x_i (y_i - (w x_i + b))
  dL/db = -(2/N) Σ (y_i - (w x_i + b))

  Update:
  w := w - η * dL/dw
  b := b - η * dL/db
  

এই সহজ উদাহরণটাও ক্যালকুলাস ও লিনিয়ার অ্যালজেব্রার সমন্বয়।

১৭ | নিরাপত্তা ও এথিক্যাল প্রয়োগ

AI-এর গণিত শিখলেও ব্যবহারিক ক্ষেত্রে এথিক্স গুরুত্বপূর্ণ—ডেটা বায়াস, প্রাইভেসি, মডেল ভুল সিদ্ধান্তের ঝুঁকি ইত্যাদি। AI বানানোর সময় এই দিকগুলো মাথায় রাখুন।

১৮ | উপসংহার — সংক্ষিপ্ত ও প্রেরণাদায়ক

কৃত্রিম বুদ্ধিমত্তা কোনো একক রহস্য নয়; এটি গণিতের একটি বাস্তবায়িত রূপ। লিনিয়ার অ্যালজেব্রা, ক্যালকুলাস, সম্ভাবনা ও পরিসংখ্যান—এসবের সমন্বয়ে মডেল শেখে এবং সিদ্ধান্ত নেয়। আপনি যদি AI-এ পারদর্শী হতে চান, এই গণিতগুলোকে ধীরে ধীরে অনুশীলন করুন, প্রকল্প বানান এবং সমস্যাগুলোকে সংখ্যায় রূপ দিতে শিখুন। Mathologys-এ আমি আপনাকে প্রতিটি ধাপে গাইড করব।

↑ সূচিপত্রে ফিরুন

পোস্টটি ভালো লাগলে শেয়ার করতে ভুলবেন না। আপনার মতামত বা প্রশ্ন নিচের কমেন্টে জানান।


লেখক পরিচিতি:

আরিফিন আকাশ
প্রভাষক(গণিত)
Mathcheap ও Mathologys এর স্বত্বাধিকারী
গণিত, বিজ্ঞান, ও প্রযুক্তি বিষয়ক লেখক।
ওয়েবসাইট: www.mathcheap.com এবং www.mathologys.com
Facebook: facebook.com/mathcheap

একটি মন্তব্য পোস্ট করুন