简单工具

keras_attention_block的Python项目详细描述


说明

路缘石注意块是路缘石增加注意的延伸。它是由于缺乏现有的功能而引起的。 模块本身是纯python,不依赖于标准python发行版和keras之外的模块或包。

关键词:Keras、深度学习、注意力

功能

  • 支持一维注意,即输入的维度为批量大小*时间步长*隐藏大小
  • 支持二维注意,即输入的维度都是批量大小*x*y*隐藏大小
  • 支持自我注意,也就是接受张力。包括四种定义明确的计算:加法、乘法、点积和线性。
  • 支持注意,即接受两个张量。包括三种定义明确的计算:加法、乘法和基于点积的计算。
  • 支持关注。包括三种定义明确的计算:加法、乘法和基于点积的计算。
  • 支持多头注意
  • 支持自定义键和查询之间的相似度计算
  • 支持自定义的值计算

示例

fromkeras.layersimportmergefromkeras.layers.coreimport*fromkeras.layers.recurrentimportLSTMfromkeras.layersimportConvolution2Dfromkeras.modelsimport*fromkeras.layers.normalizationimportBatchNormalizationfromkeras_attention_blockimport*INPUT_DIM=32TIME_STEPS=20SINGLE_ATTENTION_VECTOR=FalseAPPLY_ATTENTION_BEFORE_LSTM=Falseinputs=Input(shape=(TIME_STEPS,INPUT_DIM))attention_mul=SelfAttention1DLayer(similarity="linear",dropout_rate=0.2)(inputs)#MyLayer((20,32))(inputs)#lstm_units=32#attention_mul = LSTM(lstm_units, return_sequences=False)(attention_mul)attention_mul=Flatten()(attention_mul)output=Dense(1,activation='sigmoid')(attention_mul)m=Model(inputs=[inputs],outputs=output)m.compile(optimizer='adam',loss='binary_crossentropy',metrics=['accuracy'])print(m.summary())train_data=np.random.random((1000,20,32))train_lab=np.random.randint(0,2,1000)m.fit(train_data,train_lab,epochs=1,batch_size=100)

安装

  • python -m pip install keras_attention_block

待办事项

  • 三维注意力

欢迎加入QQ群-->: 979659372 Python中文网_新手群

推荐PyPI第三方库


热门话题
java Spring引导,通过POST从InputStream上载文件期间RestTemplate异常   Java小程序在小程序查看器中运行,但不在浏览器中运行   swing如何追踪Java中看似随机的崩溃?   带线程池的多线程Java阶乘计算   java EWS:FindItem请求异常中不支持的限制   java Android studio ListView默认项   Java的字符串。split()删除尾随的空条目   java如何在j2EE应用程序中通过JMS和Websphere MQ发送和接收xml文件   facebook图形api Solrjava错误:class com。restfb。类型。Post声明多个名为type的JSON字段   java Oracle数据库:使用字符(X)或数字(X)代替日期   java如何在saxon中使用DirectoryCollection   oracle我可以脱机“查看”Java标准库吗   java的增量if循环函数在主函数的增量循环中   oracle数字类型的数据库java映射   java读取一个文本文件并写入多个文本文件以进行过滤/提取   java ImageJ无法获取CurrentImage