2025年9月5日 星期五

2025 09 05 左永安 顧問/講師/委員/宮主/秘書長/永續長/執行長/理事長 AI應用規劃師初級: L11 人工智慧基礎概論 L11201 資料基本概念與來源 關於多元迴歸(Multiple Regression)與 廣義線性模型 (Generalized Linear Model,GLM),下列敘述何者 不正確? (A) 多元迴歸的自變項必須是類別資料 (B) GLM的自變項 可以是 類別資料 (C) 多元迴歸 的 應變項 必須為單一個 (D) GLM 的 自變項 可以是兩個以上

 

2025 09 05 左永安 顧問/講師/委員/宮主/秘書長/永續長/執行長/理事長 AI應用規劃師初級: L11 人工智慧基礎概論 L11201 資料基本概念與來源 關於多元迴歸(Multiple Regression)與 廣義線性模型 (Generalized Linear Model,GLM),下列敘述何者 不正確? (A) 多元迴歸的自變項必須是類別資料 (B) GLM的自變項 可以是 類別資料 (C) 多元迴歸 的 應變項 必須為單一個 (D) GLM 的 自變項 可以是兩個以上

  

AI應用規劃師初級: L11 人工智慧基礎概論 

     L11201 資料基本概念與來源


 190. 關於 關聯型態探勘 的特點,下列敘述何者不正確?

          (A) 關聯型態探勘所得到的結果,因為可以直接進行應用,所以廣受 歡迎 

          (B) 關聯型態分析 容易從隨機的型態中 妄下虛假的結論 

          (C)  關聯型態探勘符合資料探勘挖掘資料庫中無預期知識的理念 

           (D) 關聯型態探勘的分析方法對於小資料集的用處不大 


 191. 關於多元迴歸(Multiple Regression)與 廣義線性模型

       (Generalized Linear Model,GLM),下列敘述何者 不正確? 

         (A) 多元迴歸的自變項必須是類別資料 

         (B) GLM的自變項 可以是 類別資料

         (C) 多元迴歸 的 應變項 必須為單一個 

          (D) GLM 的 自變項 可以是兩個以上 


192. 關於K近鄰法(K-Nearest Neighbor),下列敘述何者 不正確? 

         (A) 根據現有已分類好的資料集合,找出 K 個與待分類資料最鄰近 的

                現存資料 

         (B) 根據 K 個最鄰近資料之類別,以多數決的方式決定待分類資料 

               的所屬類別 

         (C) 建議K為奇數值 

         (D) 根據K值將資料分為K群 


193. 下列何者屬於 線性的 機器學習模型? 

         (A) 偏最小平方法(Partial Least Squares) 

         (B) 貝氏分類法(Naïve Bayes)

         (C) 支援向量機(Support Vector Machine) 

         (D) 類神經網路(Neural Network) 


194. 關於常用於資料建模的演算法,下列敘述何者 不正確? 

         (A) K平均法(K-Means)演算法是分類演算法的一種

         (B)  ID3(Iterative Dichotomiser 3)演算法是決策樹演算法的一種

         (C)  C4.5 演算法是分類演算法的一種 

          (D) CART(Classification and Regression Trees)演算法是分類演算法 的一種


195. 深度學習(Deep Learning)和下列哪一個演算法 沒有直接相關? 

         (A) 卷積神經網路(Convolutional Neural Networks)

         (B) 遞歸神經網路(Recurrent Neural Network) 

          (C) 感知學習演算法(Perceptron Learning Algorithm) 

          (D) 關聯規則演算法(Apriori Algorithm) 


 196. 支援向量機(Support Vector Machine)源自 最大邊界分類法

         (Maximun Margin Classifier) ,請問哪一條線 是 最大邊界分類法

            建立的決策邊界?


               (A) A 

               (B) B

               (C) C 

               (D) D


197. 梯度遞減法(Gradient Descent)是機器學習中  常使用的參數收斂方 式,

       我們可以透過參數alpha來調整整體收斂的速度(Step Size),請 問如果alpha

       大時,會導致什麼狀況發生? 

              (A) 太快收斂 

              (B) 收斂速度過慢 

              (C) 無法收斂 

              (D) 以上皆有可能發生 


 198. 下列何者不適合用來「預測明天會不會下雨」? 

              (A) 支援向量迴歸(Support Vector Regression) 

              (B) 支援向量機(Support Vector Machine) 

              (C) 決策樹(Decision Tree) 

              (D) 類神經網路(Neural Network) 


199. 關於 迴歸模型績效評估,下列敘述何者 正確? 

             (A) 評估模型績效的方式不只一種,通常只用一種模型績效評估的方 式

                     來決定模型的優劣 

            (B) 許多績效評量的計算是基於殘差(residual),它是模型的預測值 減

                  去觀測值 

            (C) 常用的績效評量 SSE 是殘差平方的平均值,而另一個常用的績 效

                  評量MSE是殘差平方的總和

            (D) R2 也是常用的 績效評量,其值 表示資料中的訊息被模型所解釋 

                  的比例,R2的 解釋 與 結果變數 的 變異 有關 


 D 200. 關於線性迴歸,下列敘述何者 不正確? 

           (A) 並非任何資料集 均可建立 多元線性迴歸模型

                (multiple linear regression),有時會有建模失敗的狀況發生 

           (B) 線性迴歸屬於無母數(nonparametric)的統計建模方法 

          (C) 迴歸方程式係數 估計最佳化問題  是  最小化誤差平方和

             (Sum of Squared Error, SSE) 

          (D) 相較於類神經網路與支援向量機等監督式學習模型,迴歸建模

                所 獲得的模型可解釋性較低


 





沒有留言:

張貼留言