1、代码如下:
import numpy as np from keras.models import Sequential from keras.layers import Dense, Activation,Reshape from keras.layers import merge from keras.utils.visualize_util import plot from keras.layers import Input, Lambda from keras.models import Model def slice(x,index): return x[:,:,index] a = Input(shape=(4,2)) x1 = Lambda(slice,output_shape=(4,1),arguments={'index':0})(a) x2 = Lambda(slice,output_shape=(4,1),arguments={'index':1})(a) x1 = Reshape((4,1,1))(x1) x2 = Reshape((4,1,1))(x2) output = merge([x1,x2],mode='concat') model = Model(a, output) x_test = np.array([[[1,2],[2,3],[3,4],[4,5]]]) print model.predict(x_test) plot(model, to_file='lambda.png',show_shapes=True)
2、注意Lambda 是可以进行参数传递的,传递的方式如下代码所述:
def slice(x,index):
return x[:,:,index]
如上,index是参数,通过字典将参数传递进去.
x1 = Lambda(slice,output_shape=(4,1),arguments={'index':0})(a)
x2 = Lambda(slice,output_shape=(4,1),arguments={'index':1})(a)
3、上述代码实现的是,将矩阵的每一列提取出来,然后单独进行操作,最后在拼在一起。可视化的图如下所示。
补充知识:tf.keras.layers.Lambda()——匿名函数层解析
1. 参数列表
2. 作用
可以把任意的一个表达式作为一个“Layer”对象
Lambda层之所以存在是因为它可以在构建Squential时使用任意的函数或者说tensorflow 函数。
在我们需要完成一些简单的操作(例如VAE中的重采样)的情况下,Lambda层再适合不过了。
3. 举个栗子(VAE)
可以看到通过在encoder和decoder中间加入一个Lambda层使得encoder和decoder连接起来,很方便
def sampling(agrs): mean,logvar = agrs[0],agrs[1] eps = tf.random.normal(tf.shape(mean)) return mean + eps*tf.exp(logvar * 0.5) # 编码阶段 x = layers.Input(shape=(784,)) # 输入层 h1 = layers.Dense(200,activation='softplus')(x) h2 = layers.Dense(200,activation='softplus')(h1) # 均值和方差层不需要激活函数 mean = layers.Dense(latent_dimension)(h2) log_var = layers.Dense(latent_dimension)(h2) # 将采样过程看成一个Lambda层,这里利用自定义的sampling函数 z = layers.Lambda(sampling,output_shape=(latent_dimension,))([mean,log_var]) # 解码阶段 h3 = layers.Dense(200,activation='softplus') h4 = layers.Dense(200,activation='softplus') h5 = layers.Dense(200,activation='softplus') # No activation end = layers.Dense(784) z1 = h3(z) z2 = h4(z1) z3 = h5(z2) out = end(z3) # 建立模型 model = tf.keras.Model(x,out)
4. Lambda层的缺点
Lambda层虽然很好用,但是它不能去更新我们模型的配置信息,就是不能重写'model.get_config()'方法
所以tensorflow提议,尽量使用自定义层(即tf.keras.layers的子类)
关于自定义层,我的博客有一期会专门讲
总结
当网络需要完成一些简单的操作时,可以考虑使用Lambda层。
以上这篇keras Lambda自定义层实现数据的切片方式,Lambda传参数就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
更新日志
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]