[模式识别]实验报告

《模式识别》实验报告

一、数据生成与绘图实验

1. 高斯发生器。用均值为m ,协方差矩阵为S 的高斯分布生成N 个l 维向量。 设置均值

代码:

m=[-1;0];

S=[1,1/2;1/2,1];

mvnrnd(m,S,8)

结果显示:

ans =

-0.4623 3.3678

0.8339 3.3153

-3.2588 -2.2985

-0.1378 3.0594

-0.6812 0.7876

-2.3077 -0.7085

-1.4336 0.4022

-0.6574 -0.0062

2. 高斯函数计算。编写一个计算已知向量x 的高斯分布(m , s ) 值的Matlab 函数。 均值与协方差与第一题相同,因此代码如下:

x=[1;1];

z=1/((2*pi)^0.5*det(S)^0.5)*exp(-0.5*(x-m)'*inv(S)*(x-m))

显示结果: m=⎡⎣-1,0⎤⎦T ,协方差为[1,1/2;1/2,1];

z =

0.0623

3. 由高斯分布类生成数据集。编写一个Matlab 函数,生成N 个l 维向量数据集,它们是基于c 个本体的高斯分布(mi , si ),对应先验概率Pi ,i= 1,……,c。 M 文件如下:

function [X,Y] = generate_gauss_classes(m,S,P,N)

[r,c]=size(m);

X=[];

Y=[];

for j=1:c

t=mvnrnd(m(:,j),S(:,:,j),fix(P(j)*N));

X=[X t];

Y=[Y ones(1,fix(P(j)*N))*j];

end

end

调用指令如下:

m1=[1;1];

m2=[12;8];

m3=[16;1];

S1=[4,0;0,4];

S2=[4,0;0,4];

S3=[4,0;0,4];

m=[m1,m2,m3];

S(:,:,1)=S1;

S(:,:,2)=S2;

S(:,:,3)=S3;

P=[1/3,1/3,1/3];

N=10;

[X,Y] = generate_gauss_classes(m,S,P,N)

二、贝叶斯决策上机实验

1.(a)由均值向量m1=[1;1],m2=[7;7],m3=[15;1],方差矩阵S 的正态分布形成三个等(先验)概率的类,再基于这三个类,生成并绘制一个N =1000 的二维向量的数据集。

(b)当类的先验概率定义为向量P =[0.6,0.3,0.1],重复(a )。

(c)仔细分析每个类向量形成的聚类的形状、向量数量的特点及分布参数的影响。

M文件代码如下:

function plotData(P)

m1=[1;1];

S1=[12,0;0,1];

m2=[7;7];

S2=[8,3;3,2];

m3=[15;1];

S3=[2,0;0,2];

N=1000;

r1=mvnrnd(m1,S1,fix(P(1)*N));

r2=mvnrnd(m2,S2,fix(P(2)*N));

r3=mvnrnd(m3,S3,fix(P(3)*N));

figure(1);

plot(r1(:,1),r1(:,2),'r.');

hold on;

plot(r2(:,1),r2(:,2),'g.');

hold on;

plot(r3(:,1),r3(:,2),'b.');

end

(a)调用指令:

P=[1/3,1/3,1/3];

plotData(P)

实验结果如下:

-10-505101520

图(1)红色代表第一类,绿色代表第二类,蓝色代表第三类

(b)调用指令:P=[0.6,0.3,0.1];

plotData(P)

实验结果如下:

12

10

8

6

4

2

-2

-4

-10-505101520

(c)分析:比较(a)和(b)两个实验可以得出(1)协方差矩阵直接影响了聚类的形状.(2)在第一种情况下,每一类有大致相同数量的向量,在后一种情况下,最左边和最右边的类分别比前一种情况更“密集”和更“稀疏”。

2.M 文件如下:

function plotData2(m1,m2,m3,S1,S2,S3)

P=[1/3,1/3,1/3];

N=1000;

r1=mvnrnd(m1,S1,fix(P(1)*N));

r2=mvnrnd(m2,S2,fix(P(2)*N));

r3=mvnrnd(m3,S3,fix(P(3)*N));

figure(1);

plot(r1(:,1),r1(:,2),'r.');

hold on;

plot(r2(:,1),r2(:,2),'g.');

hold on;

plot(r3(:,1),r3(:,2),'b.');

End

(a)调用指令:

m1=[1,1];

m2=[12,8];

m3=[16,1];

S1=[4,0;0,4];

S2=[4,0;0,4];

S3=[4,0;0,4];

plotData2(m1,m2,m3,S1,S2,S3)

实验结果如下:

14

12

10

8

6

4

2

-2

-4

-6-10-[1**********]

(b)调用指令:

m1=[1,1];

m2=[14,7];

m3=[16,1];

S1=[5,3;3,4];

S2=[5,3;3,4];

S3=[5,3;3,4];

plotData2(m1,m2,m3,S1,S2,S3)

实验结果如下:

15

10

5

-5

-10-10-[1**********]

(c)调用指令如下:

m1=[1,1];

m2=[8,6];

m3=[13,1];

S1=[6,0;0,6];

S2=[6,0;0,6];

S3=[6,0;0,6];

plotData2(m1,m2,m3,S1,S2,S3)

实验结果如下:

14

12

10

8

6

4

2

-2

-4

-6-10-[1**********]

(d)调用指令:

m1=[1,1];

m2=[10,5];

m3=[11,1];

S1=[7,4;4,5];

S2=[7,4;4,5];

S3=[7,4;4,5];

plotData2(m1,m2,m3,S1,S2,S3)

实验结果如下:

15

10

5

-5

-10-10-505101520

2. 对X1 ~X4 分别重复以下实验,并仔细分析实验结果,得出结论。

(1)对X 应用贝叶斯分类、欧几里德距离以及Mahalanobis 距离分类。

(2)计算每种分类器的分类误差,绘制数据集的分类结果,错分的向量加圆圈表示。

M 文件如下(贝叶斯分类) :

function z=Bayes_classifier(m,S,P,a)

[n,r]=size(a);

[r,c]=size(m);

for i=1:n

for j=1:c

t(j)=P(j)*comp_gauss_dens_val(m(:,j),S(:,:,j),a(i,:)');

end

[num,z(i)]=max(t);

end

End

M 文件如下(欧几里得分类器) :

function z=Euclidean_classifier(m,a)

[n,r]=size(a);

[r,c]=size(m);

for i=1:n

for j=1:c

t(j)=sqrt((a(i,:)'-m(:,j))'*(a(i,:)'-m(:,j)));

end

[num,z(i)]=min(t);

end

end

M 文件如下(Mahalanobis距离分类器) :

function z=Mahalanobis_classifier(m,S,a)

[n,r]=size(a);

[r,c]=size(m);

for i=1:n

for j=1:c

t(j)=sqrt((a(i,:)'-m(:,j))'*inv(S(:,:,j))*(a(i,:)'-m(:,j)));

end

[num,z(i)]=min(t);

end

end

M 文件如下(对数据集X1分别使用三种分类器作图)

function error=plotX1(m1,m2,m3,S1,S2,S3)

m=[m1,m2,m3];

S(:,:,1)=S1;

S(:,:,2)=S2;

S(:,:,3)=S3;

P=[1/3,1/3,1/3];

N=1000;

numArray=fix(P*N);

a=[];

[r,c]=size(m);

pale1=['r.';'g.';'b.'];

pale2=['ko';'ko';'ko'];

[X,Y]=generate_gauss_classes(m,S,P,N);

for i=1:numArray(1)

for j=1:2

a(i,j)=X(i,j);

end

end

for i=1:numArray(2)

for j=1:2

a(i+numArray(1),j)=X(i,j+2);

end

end

for i=1:numArray(3)

for j=1:2

a(i+numArray(1)+numArray(2),j)=X(i,j+4);

end

end

[k,r]=size(a);

z1=Bayes_classifier(m,S,P,a);

z2=Euclidean_classifier(m,a);

z3=Mahalanobis_classifier(m,S,a);

error(1)=0;

error(2)=0;

error(3)=0;

figure(1);

title('贝叶斯分类器');

hold on;

for n=1:k

if(Y(n)~=z1(n))

error(1)=error(1)+1;

plot(a(n,1),a(n,2),pale2(Y(n),:));

hold on;

end

plot(a(n,1),a(n,2),pale1(Y(n),:));

hold on;

end

figure(2);

title('欧几里得距离分类器');

hold on;

for n=1:k

if(Y(n)~=z2(n))

error(2)=error(2)+1;

plot(a(n,1),a(n,2),pale2(Y(n),:));

hold on;

end

plot(a(n,1),a(n,2),pale1(Y(n),:));

hold on;

end

figure(3);

title('Mahalaobis距离分类器');

hold on;

for n=1:k

if(Y(n)~=z3(n))

error(3)=error(3)+1;

plot(a(n,1),a(n,2),pale2(Y(n),:));

hold on;

end

plot(a(n,1),a(n,2),pale1(Y(n),:));

hold on;

end

end

(a)对X1分别使用贝叶斯分类器,欧几里得距离分类器以及Mahalanobis 分类器进行分类,程序以及结果如下:

调用指令:

m1=[1;1];

m2=[12;8];

m3=[16;1];

S1=[4,0;0,4];

S2=[4,0;0,4];

S3=[4,0;0,4];

plotX(m1,m2,m3,S1,S2,S3)

结果显示(对X1数据集分别用三种分类器产生的错误数) :

ans =

17 17 17

贝叶斯分类器

-[1**********]

欧几里得距离分类器

-5

0510152025

Mahalaobis 距离分类器

-5

05101520

25

(b)对X2分别使用贝叶斯分类器,欧几里得距离分类器以及Mahalanobis 分类器进行分类,程序以及结果如下:

m1=[1;1]; m2=[14;7]; m3=[16;1]; S1=[5,3;3,4]; S2=[5,3;3,4];

S3=[5,3;3,4];

plotX(m1,m2,m3,S1,S2,S3)

结果显示: ans =

8 21 8

贝叶斯分类

15

10

5

-5

-10-5

0510152025

欧几里得距离分类

15

10

5

-5

-10-5

0510152025

Mahalaobis 距离分类

15

10

5

-5

-10-5

0510152025

(c)对X3分别使用贝叶斯分类器,欧几里得距离分类器以及Mahalanobis 分类器进行分类,程序以及结果如下: 指令调用:

m1=[1;1]; m2=[8;6]; m3=[13;1]; S1=[6,0;0,6]; S2=[6,0;0,6]; S3=[6,0;0,6];

plotX(m1,m2,m3,S1,S2,S3)

结果显示: ans =

74 74 74

贝叶斯分类器

-10

-5

5

10

15

20

25

欧几里得距离分类器

-10

-5

5

10

15

20

25

Mahalaobis 距离分类器

-10

-5

5

10

15

20

25

(d)对X4分别使用贝叶斯分类器,欧几里得距离分类器以及Mahalanobis 分类器进行分类,程序以及结果如下:

m1=[1;1]; m2=[10;5]; m3=[11;1]; S1=[7,4;4,5]; S2=[7,4;4,5]; S3=[7,4;4,5];

plotX(m1,m2,m3,S1,S2,S3)

结果显示:

ans =

82 119 82

贝叶斯分类器

欧几里得距离分类器

Mahalaobis 距离分类器

实验分析:对X1—X4应用贝叶斯分类、欧几里德距离以及Mahalanobis 距离分类,可以得出(1)对于不同的m,S 的数据集,采用这三种分类器进行分类,错误率相差很大(2)对于同一种数据集而言,使用贝叶斯分类器与Mahalanobis 距离分类器产生的错误数是相同的。

《模式识别》实验报告

一、数据生成与绘图实验

1. 高斯发生器。用均值为m ,协方差矩阵为S 的高斯分布生成N 个l 维向量。 设置均值

代码:

m=[-1;0];

S=[1,1/2;1/2,1];

mvnrnd(m,S,8)

结果显示:

ans =

-0.4623 3.3678

0.8339 3.3153

-3.2588 -2.2985

-0.1378 3.0594

-0.6812 0.7876

-2.3077 -0.7085

-1.4336 0.4022

-0.6574 -0.0062

2. 高斯函数计算。编写一个计算已知向量x 的高斯分布(m , s ) 值的Matlab 函数。 均值与协方差与第一题相同,因此代码如下:

x=[1;1];

z=1/((2*pi)^0.5*det(S)^0.5)*exp(-0.5*(x-m)'*inv(S)*(x-m))

显示结果: m=⎡⎣-1,0⎤⎦T ,协方差为[1,1/2;1/2,1];

z =

0.0623

3. 由高斯分布类生成数据集。编写一个Matlab 函数,生成N 个l 维向量数据集,它们是基于c 个本体的高斯分布(mi , si ),对应先验概率Pi ,i= 1,……,c。 M 文件如下:

function [X,Y] = generate_gauss_classes(m,S,P,N)

[r,c]=size(m);

X=[];

Y=[];

for j=1:c

t=mvnrnd(m(:,j),S(:,:,j),fix(P(j)*N));

X=[X t];

Y=[Y ones(1,fix(P(j)*N))*j];

end

end

调用指令如下:

m1=[1;1];

m2=[12;8];

m3=[16;1];

S1=[4,0;0,4];

S2=[4,0;0,4];

S3=[4,0;0,4];

m=[m1,m2,m3];

S(:,:,1)=S1;

S(:,:,2)=S2;

S(:,:,3)=S3;

P=[1/3,1/3,1/3];

N=10;

[X,Y] = generate_gauss_classes(m,S,P,N)

二、贝叶斯决策上机实验

1.(a)由均值向量m1=[1;1],m2=[7;7],m3=[15;1],方差矩阵S 的正态分布形成三个等(先验)概率的类,再基于这三个类,生成并绘制一个N =1000 的二维向量的数据集。

(b)当类的先验概率定义为向量P =[0.6,0.3,0.1],重复(a )。

(c)仔细分析每个类向量形成的聚类的形状、向量数量的特点及分布参数的影响。

M文件代码如下:

function plotData(P)

m1=[1;1];

S1=[12,0;0,1];

m2=[7;7];

S2=[8,3;3,2];

m3=[15;1];

S3=[2,0;0,2];

N=1000;

r1=mvnrnd(m1,S1,fix(P(1)*N));

r2=mvnrnd(m2,S2,fix(P(2)*N));

r3=mvnrnd(m3,S3,fix(P(3)*N));

figure(1);

plot(r1(:,1),r1(:,2),'r.');

hold on;

plot(r2(:,1),r2(:,2),'g.');

hold on;

plot(r3(:,1),r3(:,2),'b.');

end

(a)调用指令:

P=[1/3,1/3,1/3];

plotData(P)

实验结果如下:

-10-505101520

图(1)红色代表第一类,绿色代表第二类,蓝色代表第三类

(b)调用指令:P=[0.6,0.3,0.1];

plotData(P)

实验结果如下:

12

10

8

6

4

2

-2

-4

-10-505101520

(c)分析:比较(a)和(b)两个实验可以得出(1)协方差矩阵直接影响了聚类的形状.(2)在第一种情况下,每一类有大致相同数量的向量,在后一种情况下,最左边和最右边的类分别比前一种情况更“密集”和更“稀疏”。

2.M 文件如下:

function plotData2(m1,m2,m3,S1,S2,S3)

P=[1/3,1/3,1/3];

N=1000;

r1=mvnrnd(m1,S1,fix(P(1)*N));

r2=mvnrnd(m2,S2,fix(P(2)*N));

r3=mvnrnd(m3,S3,fix(P(3)*N));

figure(1);

plot(r1(:,1),r1(:,2),'r.');

hold on;

plot(r2(:,1),r2(:,2),'g.');

hold on;

plot(r3(:,1),r3(:,2),'b.');

End

(a)调用指令:

m1=[1,1];

m2=[12,8];

m3=[16,1];

S1=[4,0;0,4];

S2=[4,0;0,4];

S3=[4,0;0,4];

plotData2(m1,m2,m3,S1,S2,S3)

实验结果如下:

14

12

10

8

6

4

2

-2

-4

-6-10-[1**********]

(b)调用指令:

m1=[1,1];

m2=[14,7];

m3=[16,1];

S1=[5,3;3,4];

S2=[5,3;3,4];

S3=[5,3;3,4];

plotData2(m1,m2,m3,S1,S2,S3)

实验结果如下:

15

10

5

-5

-10-10-[1**********]

(c)调用指令如下:

m1=[1,1];

m2=[8,6];

m3=[13,1];

S1=[6,0;0,6];

S2=[6,0;0,6];

S3=[6,0;0,6];

plotData2(m1,m2,m3,S1,S2,S3)

实验结果如下:

14

12

10

8

6

4

2

-2

-4

-6-10-[1**********]

(d)调用指令:

m1=[1,1];

m2=[10,5];

m3=[11,1];

S1=[7,4;4,5];

S2=[7,4;4,5];

S3=[7,4;4,5];

plotData2(m1,m2,m3,S1,S2,S3)

实验结果如下:

15

10

5

-5

-10-10-505101520

2. 对X1 ~X4 分别重复以下实验,并仔细分析实验结果,得出结论。

(1)对X 应用贝叶斯分类、欧几里德距离以及Mahalanobis 距离分类。

(2)计算每种分类器的分类误差,绘制数据集的分类结果,错分的向量加圆圈表示。

M 文件如下(贝叶斯分类) :

function z=Bayes_classifier(m,S,P,a)

[n,r]=size(a);

[r,c]=size(m);

for i=1:n

for j=1:c

t(j)=P(j)*comp_gauss_dens_val(m(:,j),S(:,:,j),a(i,:)');

end

[num,z(i)]=max(t);

end

End

M 文件如下(欧几里得分类器) :

function z=Euclidean_classifier(m,a)

[n,r]=size(a);

[r,c]=size(m);

for i=1:n

for j=1:c

t(j)=sqrt((a(i,:)'-m(:,j))'*(a(i,:)'-m(:,j)));

end

[num,z(i)]=min(t);

end

end

M 文件如下(Mahalanobis距离分类器) :

function z=Mahalanobis_classifier(m,S,a)

[n,r]=size(a);

[r,c]=size(m);

for i=1:n

for j=1:c

t(j)=sqrt((a(i,:)'-m(:,j))'*inv(S(:,:,j))*(a(i,:)'-m(:,j)));

end

[num,z(i)]=min(t);

end

end

M 文件如下(对数据集X1分别使用三种分类器作图)

function error=plotX1(m1,m2,m3,S1,S2,S3)

m=[m1,m2,m3];

S(:,:,1)=S1;

S(:,:,2)=S2;

S(:,:,3)=S3;

P=[1/3,1/3,1/3];

N=1000;

numArray=fix(P*N);

a=[];

[r,c]=size(m);

pale1=['r.';'g.';'b.'];

pale2=['ko';'ko';'ko'];

[X,Y]=generate_gauss_classes(m,S,P,N);

for i=1:numArray(1)

for j=1:2

a(i,j)=X(i,j);

end

end

for i=1:numArray(2)

for j=1:2

a(i+numArray(1),j)=X(i,j+2);

end

end

for i=1:numArray(3)

for j=1:2

a(i+numArray(1)+numArray(2),j)=X(i,j+4);

end

end

[k,r]=size(a);

z1=Bayes_classifier(m,S,P,a);

z2=Euclidean_classifier(m,a);

z3=Mahalanobis_classifier(m,S,a);

error(1)=0;

error(2)=0;

error(3)=0;

figure(1);

title('贝叶斯分类器');

hold on;

for n=1:k

if(Y(n)~=z1(n))

error(1)=error(1)+1;

plot(a(n,1),a(n,2),pale2(Y(n),:));

hold on;

end

plot(a(n,1),a(n,2),pale1(Y(n),:));

hold on;

end

figure(2);

title('欧几里得距离分类器');

hold on;

for n=1:k

if(Y(n)~=z2(n))

error(2)=error(2)+1;

plot(a(n,1),a(n,2),pale2(Y(n),:));

hold on;

end

plot(a(n,1),a(n,2),pale1(Y(n),:));

hold on;

end

figure(3);

title('Mahalaobis距离分类器');

hold on;

for n=1:k

if(Y(n)~=z3(n))

error(3)=error(3)+1;

plot(a(n,1),a(n,2),pale2(Y(n),:));

hold on;

end

plot(a(n,1),a(n,2),pale1(Y(n),:));

hold on;

end

end

(a)对X1分别使用贝叶斯分类器,欧几里得距离分类器以及Mahalanobis 分类器进行分类,程序以及结果如下:

调用指令:

m1=[1;1];

m2=[12;8];

m3=[16;1];

S1=[4,0;0,4];

S2=[4,0;0,4];

S3=[4,0;0,4];

plotX(m1,m2,m3,S1,S2,S3)

结果显示(对X1数据集分别用三种分类器产生的错误数) :

ans =

17 17 17

贝叶斯分类器

-[1**********]

欧几里得距离分类器

-5

0510152025

Mahalaobis 距离分类器

-5

05101520

25

(b)对X2分别使用贝叶斯分类器,欧几里得距离分类器以及Mahalanobis 分类器进行分类,程序以及结果如下:

m1=[1;1]; m2=[14;7]; m3=[16;1]; S1=[5,3;3,4]; S2=[5,3;3,4];

S3=[5,3;3,4];

plotX(m1,m2,m3,S1,S2,S3)

结果显示: ans =

8 21 8

贝叶斯分类

15

10

5

-5

-10-5

0510152025

欧几里得距离分类

15

10

5

-5

-10-5

0510152025

Mahalaobis 距离分类

15

10

5

-5

-10-5

0510152025

(c)对X3分别使用贝叶斯分类器,欧几里得距离分类器以及Mahalanobis 分类器进行分类,程序以及结果如下: 指令调用:

m1=[1;1]; m2=[8;6]; m3=[13;1]; S1=[6,0;0,6]; S2=[6,0;0,6]; S3=[6,0;0,6];

plotX(m1,m2,m3,S1,S2,S3)

结果显示: ans =

74 74 74

贝叶斯分类器

-10

-5

5

10

15

20

25

欧几里得距离分类器

-10

-5

5

10

15

20

25

Mahalaobis 距离分类器

-10

-5

5

10

15

20

25

(d)对X4分别使用贝叶斯分类器,欧几里得距离分类器以及Mahalanobis 分类器进行分类,程序以及结果如下:

m1=[1;1]; m2=[10;5]; m3=[11;1]; S1=[7,4;4,5]; S2=[7,4;4,5]; S3=[7,4;4,5];

plotX(m1,m2,m3,S1,S2,S3)

结果显示:

ans =

82 119 82

贝叶斯分类器

欧几里得距离分类器

Mahalaobis 距离分类器

实验分析:对X1—X4应用贝叶斯分类、欧几里德距离以及Mahalanobis 距离分类,可以得出(1)对于不同的m,S 的数据集,采用这三种分类器进行分类,错误率相差很大(2)对于同一种数据集而言,使用贝叶斯分类器与Mahalanobis 距离分类器产生的错误数是相同的。


相关内容

  • 认知心理学重点整理
  • 学习指导: 第一章:绪论 1.认知心理学的定义 认知心理学有广义和狭义两种涵义 广义的认知心理学主要探讨人类内部心理活动过程.个体认知的发生与发展,以及对人的心理事件.心理表征和信念.意向等心理活动的研究. 狭义的认知心理学,是以信息加工理论观点为核心的心理学,又被称为信息加工心理学.本书中的内容以 ...

  • 调制识别-实验报告
  • 本科实验指导书 实验名称:通信技术课程设计 开课学院:电子科学与工程学院 指导教师: -调制识别 一.实验目的 <通信技术课程设计>是针对通信类基础课程和专业课程的实践型课程,承担着从一般基础理论到实践应用的重要过渡.加深理论基础.拓宽知识结构.增强动手能力.提高综合素质和培养创新意识. ...

  • 模式识别课程报告
  • 模式识别实验报告 学生姓名: 班 学 号: 指导老师: 机械与电子信息学院 2014年 6月 基于K-means 算法的改进算法 方法一:层次K 均值聚类算法 在聚类之前,传统的K 均值算法需要指定聚类的样本数,由于样本初始分布不一致,有的聚类样本可能含有很多数据,但数据分布相对集中,而有的样本集却 ...

  • 多媒体教学设备采购
  • 多媒体教学设备采购(龙圩片) 序号 设备名称 数量 参考品牌 型号规格.技术参数.性能配置 单价 合计 1 交互智能平板 48 希沃.安宇.京东方 一.整体设计要求 1.内置一体化设计,采用铝合金面框,弧形转角采用无尖锐边缘连接,整机物理按键前置,具备前置USB接口. 2.★整机电视开关.电脑开关和 ...

  • 网上支付与电子银行实验报告
  • 网上支付与电子银行实验报告 网上银行安全措施及手段分析与 银行的指纹银行业务发展情况 学生姓名: 桂彬彬 学 号: P2202110110 所在学院: 经济与管理学院 专 业: 信息管理与信息系统 指导教师: 戴 槟 2014年5月10日 目录 第一章 实验内容................... ...

  • 文献检索综合报告样例
  • 网络教学系统的分析与设计 文献检索综合报告 班 级:****** 姓名 学号:***** 完成时间: 目录 ................................................................................................ ...

  • 认知心理学
  • 一.1.信息加工系统由感受器,效应器,记忆,加工器组成.功能:输入,输出,贮存,复制,建立符号结构和条件性迁移. 符号和符号系统是外部事物的内部表征. 2减法反应时实验:唐德斯:实验中安排两种不同的反应时作业,其中一种作业包含另一种作业所没有的某个心理过程,即所要测量的过程,这两种反应时的差即为该过 ...

  • 027 自动化流水线与LIS系统的研究与应用
  • 自动化流水线与LIS 系统的研究与应用 刘博 夏新 陈彦东 基金项目:2011年上海市浦东新区卫生局卫生科技项目(PW2011A-2) ﹡通讯作者:同济大学附属东方医院(上海市东方医院)信息中心,200120,上海 ①同济大学附属东方医院(上海市东方医院)信息中心,200120,上海 ②吉林大学第二 ...

  • 认知考试题
  • 一.选择题(每题2分,共30分.) 1.( )是由有关知觉对象的一般知识开始的加工,由此可以形成期望或对知觉态度的假设,这种期望或假设制约着加工的所有阶段或水平. A.自下而上加工 B.局部加工 C.整体加工 D.自上而下加工 2.根据Selfridge的观点,模式识别过程分为四个层次,每个层次都由 ...