1樓:匿名使用者
比較的標準是與顯bai著性du平比較。一般顯著zhi性水平是給定的dao。常用的顯著性內水平有三種,容0.
1,0.05,0.01.
spss中最喜歡的是0.05.
在這個表中,顯著性看sig那列,如果這列的值小於0.05,就代表係數顯著,按照這個標準,你的結果裡面沒有乙個是顯著地!
建議先做一下相關分析
excel回歸分析結果 顯著水平0.05 這個結果應該怎麼解釋?直接說沒有相關性?還是? 10
2樓:水瓶一頭老母豬
該結果是線型關係不明顯。
p value對應的是引數的p值(雙側)。當p<0.05時,可以認為模型在α=0.05的水平上顯著,或者置信度達到95%。本例中p大於0.05,置信度小於95%。
r2又稱為方程的確定性係數(coefficient of determination),表示方程中變數x對y的解釋程度。r2取值在0到1之間,越接近1,表明方程中x對y的解釋能力越強。通常將r2乘以100%來表示回歸方程解釋y變化的百分比。
f檢驗是通過方差分析表輸出的,通過顯著性水平(significance level)檢驗回歸方程的線性關係是否顯著。一般來說,顯著性水平在0.05以上,均有意義。
當f檢驗通過時,意味著方程中至少有乙個回歸係數是顯著的。
3樓:綠衣人敲門
(1)引數顯著性檢驗t檢驗對應的prob,若小於0.05則引數的顯著性檢驗通過,再看r方,越接近1,擬合優度越高;f的p值,小於0.05的話模型才顯著,dw用來檢驗殘差序列的相關性的,在2的附近,說明殘差序列不相關。
(2)標準差是衡量回歸係數值的穩定性和可靠性的,越小越穩定,解釋變數的估計值的t值是用於檢驗係數是否為零的,若值大於臨界值則可靠。估計值的顯著性概率值(prob)都小於5%水平,說明係數是顯著的。r方是表示回歸的擬合程度,越接近1說明擬合得越完美。
調整的r方是隨著變數的增加,對增加的變數進行的「懲罰」。d-w值是衡量回歸殘差是否序列自相關,如果嚴重偏離2,則認為存在序列相關問題。f統計值是衡量回歸方程整體顯著性的假設檢驗,越大越顯著。
在用spss做乙個線性回歸分析,結果如圖,r方很低,但是顯著性都還可以。問題是這個模型**效果很差。
4樓:呂秀才
你可以嘗試著先繪製下散點圖看看 會不會用其他曲線擬合的效果會更好,很多時候資料用線性和一些非線性擬合後都會有顯著效果,但是不一定是最佳的,所以需要判斷自變數和因變數之間關係是否符合線性。
如果仍然是符合線性趨勢,但是你只有這麼乙個自變數的話,那就沒有辦法優化了,如果還有其他自變數,可以嘗試著引入之後 再看回歸效果
spss回歸分析t、f值分別代表什麼呀?
5樓:統御近距離
r方為決定係數,即擬合模型所能解釋的因變數的變化百分比。例如,r方=0.810,說明擬合方程能解釋因變數變化的81%,不能解釋的19%。
f是方差檢驗,整個模型的全域性檢驗,看擬合方程是否有意義
t值是對每個自變數進行乙個接乙個的檢驗(logistic回歸),看其beta值,即回歸係數是否有意義
f和t的顯著性均為0.05,
回歸分析在科學研究領域是最常用的統計方法。《spss回歸分析》介紹了一些基本的統計方法,例如,相關、回歸(線性、多重、非線性)、邏輯(二項、多項)、有序回歸和生存分析(壽命表法、kaplan-meier法以及cox回歸)。
spss是世界上最早的統計分析軟體。2023年,史丹福大學的三位研究生normanh.nie,c.hadlai(tex)hull和daleh.bent成功地進行了研究和開發。同時成立了spss公司。
擴充套件資料:
原理:這種表示取決於變數y中可由控制變數x解釋的變化百分比。
決定係數不等於相關係數的平方。這個和相關係數之間的區別是如果你去掉|,r|等於0和1,
由於r2
決定係數:在y的平方和中,x引起的平方和所佔的比例為r2
相關程度由決定係數的程度決定。
在多元回歸分析中,決定係數為路徑係數的平方。
表示式:r2=ssr/sst=1-sse/sst
其中:sst=ssr+sse,sst (total sum of squares)為總平方和,ssr (regression sum of squares)為回歸平方和,sse (error sum of squares) 為殘差平方和。
6樓:匿名使用者
t值、f值都是判斷顯著性的過程值,重點看p值即可。
f值用於判定模型中是否自變數x中至少有乙個對因變數y產生影響,如果呈現出顯著性(看p值),則說明所有x中至少乙個會對y產生影響關係。
t值用於判斷每個自變數的顯著性,如果顯著則說明該變數對模型有顯著影響。
可是使用spssau進行分析,直接得出文字結果及標準格式資料。
7樓:匿名使用者
r表示的是擬合優度,它是用來衡量估計的模型對觀測值的擬合程度。它的值越接近1說明模型越好。但是,你的r值太小了。
t的數值表示的是對回歸引數的顯著性檢驗值,它的絕對值大於等於ta/2(n-k)(這個值表示的是根據你的置信水平,自由度得出的數值)時,就拒絕原假設,即認為在其他解釋變數不變的情況下,解釋變數x對被解釋變數y的影響是顯著的。
f的值是回歸方程的顯著性檢驗,表示的是模型中被解釋變數與所有解釋變數之間的線性關係在總體上是否顯著做出推斷。若f>fa(k-1,n-k),則拒絕原假設,即認為列入模型的各個解釋變數聯合起來對被解釋變數有顯著影響,反之,則無顯著影響。
如果,你只改r值,我想是可以看的出來的。你的f的值和t的值都是有問題的,如果只改r值,怎麼可能在f的值和t的值都不合理的情況下,擬合優度卻突然變的很高。
8樓:陶李昶
首先r太小
f值是整個回歸模型的顯著性
t是各個自變數的顯著性
你這裡沒有給出各個自變數的,你可以把裡面的回歸不好的自變數剔除掉再回歸試試
另外sig太大了,你這模型是無效的
9樓:謙瑞資料論壇
1、r方是代表擬合度的,一般而言,財務資料或者經濟類資料,擬合度要到50%才算是擬合較好,你的這個運算結果r方只有0.171,即擬合只有17.1%,擬合是不太好的。
2、線性回歸運算結果中的anova分析,本質上是檢驗整個回歸方程是否顯著,即整體而言,參與本次研究的自變數是否可以顯著影響因變數。按照你的運算結果,anova檢驗得出的f值和p值結果不好,p>0.05,意味著整體而言,你的模型無效,即自變數不能顯著影響因變數。
3、回歸係數表coefficients,裡面的t檢驗是檢驗回歸係數是否顯著的,即某乙個自變數是否可以顯著影響因變數,是通過t檢驗實現的;前面的anova中的f檢驗是檢驗整體而言所有自變數是否可以顯著影響因變數的。按照你的資料,只有「自然人持股比例」的回歸係數通過了t檢驗,p=0.031<0.
05,但是僅僅只有這乙個自變數顯著影響因變數是沒有多大作用的,因為結合擬合度不好,且整體回歸方程不顯著(f檢驗沒通過),你建立的這個回歸方程是無效的。
spss回歸係數 sig是什麼??
10樓:風翼殘念
在spss軟體統計結果中,不管是回歸分析還是其它分析,都會看到「sig」,sig=significance,意為「顯著性」,後面的值就是統計出的p值,如果p值0.01p值是指在乙個概率模型中,統計摘要(如兩組樣本均值差)與實際觀測資料相同,或甚至更大這一事件發生的概率。換言之,是檢驗假設零假設成立或表現更嚴重的可能性。
p值若與選定顯著性水平(0.05或0.01)相比更小。
則零假設會被否定而不可接受。然而這並不直接表明原假設正確。p值是乙個服從正態分佈的隨機變數,在實際使用中因樣本等各種因素存在不確定性。產生的結果可能會帶來爭議。
檢驗統計量的構造與曼惠特尼相似,如果乙個樣本的觀測值小於另乙個樣本的個數較多或較少,那麼,多樣本的位置之間有大小關係。(j反映了單調的趨勢,j越大單調趨勢越顯著)
類似的,遞減的檢驗為p(j≤c)=1-α(或構建uij=(xik>xjl))。
當樣本足夠大時,構造z近似於標準正態分佈。
擴充套件資料:
回歸分析的主要內容為:
1、從一組資料出發,確定某些變數之間的定量關係式,即建立數學模型並估計其中的未知引數。估計引數的常用方法是最小二乘法。
2、對這些關係式的可信程度進行檢驗。
3、在許多自變數共同影響著乙個因變數的關係中,判斷哪個(或哪些)自變數的影響是顯著的,哪些自變數的影響是不顯著的,將影響顯著的自變數加入模型中,而剔除影響不顯著的變數,通常用逐步回歸、向前回歸和向後回歸等方法。
4、用所求的關係式對某一生產過程進行**或控制。回歸分析的應用是非常廣泛的,統計軟體包使各種回歸方法計算十分方便。
在回歸分析中,把變數分為兩類。一類是因變數,它們通常是實際問題中所關心的一類指標,通常用y表示;而影響因變數取值的的另一類變數稱為自變數,用x來表示。
11樓:匿名使用者
sig是significance的縮寫
即顯著性的意思,就是我們說的p值!
12樓:匿名使用者
sig值就是p值,如果p值小於
0.01即說明某件事情的發生至少有99%的把握,如果p值小於0.05(並且大於0.01)則說明某件事情的發生至少有95%的把握。
常見標準有0.01和0.05。符號標示:0.01使用2個*號表示,0.05使用1個*號表示。
具體可以檢視spssau的基礎統計概念文件,還有資料分析思路框架。
問下,spss回歸分析得出的r方值、f值、t值各有何含義,數值大小有何含義?
13樓:ieio啊
r square是決定係數,意思是擬合的模型能解釋因
變數的變化的百分數,例如r方=0.810,表示擬合的方程能解釋因變數81%的變化,還有19%是不能夠解釋的.
f值是方差檢驗量,是整個模型的整體檢驗,看你擬合的方程有沒有意義
t值是對每乙個自變數(logistic回歸)的逐個檢驗,看它的beta值β即回歸係數有沒有意義
f和t的顯著性都是0.05,
spss是世界上最早的統計分析軟體,由美國史丹福大學的三位研究生norman h. nie、c. hadlai (tex) hull 和 dale h.
bent於2023年研究開發成功,同時成立了spss公司,並於2023年成立法人組織、在芝加哥組建了spss總部。
決定係數,有的教材上翻譯為判定係數,也稱為擬合優度。表示可根據自變數的變異來解釋因變數的變異部分。如某學生在某智力量表上所得的 iq 分與其學業成績的相關係數 r=0.
66,則決定係數 r^2=0.4356,即該生學業成績約有 44%可由該智力量表所測的智力部分來說明或決定。
原理:表徵依變數y的變異中有多少百分比,可由控制的自變數x來解釋.
決定係數並不等於相關係數的平方。它與相關係數的區別在於除掉|r|=0和1情況,
由於r2決定係數:在y的總平方和中,由x引起的平方和所佔的比例,記為r2
決定係數的大小決定了相關的密切程度。
當r2越接近1時,表示相關的方程式參考價值越高;相反,越接近0時,表示參考價值越低。這是在一元回歸分析中的情況。但從本質上說決定係數和回歸係數沒有關係,就像標準差和標準誤差在本質上沒有關係一樣。
在多元回歸分析中,決定係數是通徑係數的平方。
表示式:r2=ssr/sst=1-sse/sst
其中:sst=ssr+sse,sst (total sum of squares)為總平方和,ssr (regression sum of squares)為回歸平方和,sse (error sum of squares) 為殘差平方和。
注意:以下不同名字是同乙個意思,只是表述不同
回歸平方和:ssr(sum of squares for regression) = ess (explained sum of squares)
殘差平方和:sse(sum of squares for error) = rss (residual sum of squares) =ssr(sum of squared residuals)
總離差平方和:sst(sum of squares for total) = tss(total sum of squares)
注意:兩個ssr的不同
sse+ssr=sst
rss+ess=tss
意義:擬合優度越大,自變數對因變數的解釋程度越高,自變數引起的變動佔總變動的百分比高。觀察點在回歸直線附近越密集。
取值意思:
0 表示模型效果跟瞎猜差不多
1 表示模型擬合度較好(有可能會是過擬合,需要判定)
0~1 表示模型的好壞(針對同一批資料)
spss回歸係數 sig是什麼,SPSS回歸係數 SIG是什麼
在spss軟體統計結果中,不管是回歸分析還是其它分析,都會看到 sig sig significance,意為 顯著性 後面的值就是統計出的p值,如果p值0.01p值是指在乙個概率模型中,統計摘要 如兩組樣本均值差 與實際觀測資料相同,或甚至更大這一事件發生的概率。換言之,是檢驗假設零假設成立或表現...
如何得到回歸係數的方差協方差矩陣
用stata做普通ols回歸,有三個independent variables 如何得到回歸係數的方差 協方差矩陣 例如,把性別作為調節變數,在amos裡就可以用多組比較的方法,從結果報告的p值可以看出模型對男女是否等同 如在spss裡對男女分別做回歸,該如何分別回歸,如何比較兩個方程所得標準回歸係...
spss線性回歸怎麼看相關係數,spss線性回歸分析結果怎麼看
你這個表裡只有回歸係數的資訊 你所要的相關係數應該在上乙個表中 r方是確定係數 r就是你所說的相關係數了 你自己找找看上乙個表有沒有乙個r傎,那就是相關係數了 第二列數,回歸的截距為2.345,斜率為29.392。相關係數?回歸係數?spss線性回歸分析結果怎麼看 model summary 是對模...