Searching for Activation Functions

최대 1 분 소요

Searching for Activation Function

  • 출처 : https://arxiv.org/abs/1710.05941
  • date : Fri, 27, Oct 2017

    Intro

  • RL 기반 Activation Function 을 찾아보자!
  • ReLU를 대체할만한 Swish 라는 Activation Function 을 발견
  • Search space 를 활용하여 찾음

    Result

  • 자세한 성능 관련 이야기는 생략한다. (어짜피 좋다고 말하는게 뻔하니깐)
  • 기존 ReLU 사용할때 보다 lr 을 낮추는게 잘동작한다 말함.

    Swish

    x = x * sigmoid(beta * x)
    or 
    tf.nn.swish(x)
    

    Swish 와 Sigmoid 차이

    GeoGebra : https://www.geogebra.org/m/rsscdr7j

    장점

  • 기존 Activation 을 대체하기가 아주아주 쉽다.